> Windows
Big Brother garde les utilisateurs inactifs à  l’oeil

Big Brother garde les utilisateurs inactifs à  l’oeil

par James Cook Dans la plupart des environnements AS/400, la sécurité et l'optimisation des performances exigent de déconnecter les sessions 5250 inactives. Un poste de travail connecté et sans surveillance constitue une porte d'entrée dans votre AS/400 pour un veilleur de nuit qui prendrait des cours du soir en informatique, ou un employé mécontent. Un poste de travail actif monopolise également des ressources systèmes. Il est également susceptible de provoquer des verrouillages sur un objet empêcher les sauvegardes de s'effectuer correctement.

Un poste de travail resté connecté peut également occasionner des problèmes plus subtils. Ainsi, un programme risque d'utiliser la date à  laquelle le travail interactif a été démarré et non la date du jour. Si un utilisateur reste connecté pendant une semaine, certains programmes seront susceptibles d'utiliser la date de lundi plutôt que la véritable date pour mettre à  jour certains champs.

On peut configurer la valeur système QINACTITV de l'AS/400 de manière à  clore ou à  déconnecter des travaux inactifs après un laps de temps déterminé (un travail déconnecté est placé dans un état dans lequel l'utilisateur peut se reconnecter et continuer à  travailler à  partir de l'endroit où il s'était arrêté). Ceci fonctionne bien.
Toutefois, certains employés risquent de rechigner si leurs sessions interactives sont interrompues en même temps que celles des autres utilisateurs. Par exemple, le personnel de l'exploitation exécute probablement des sessions manipulant plusieurs applications AS/400 (par exemple, la paye, la production de l'usine et la file d'attente des messages QSYSOPR) en mode break. Ces sessions doivent demeurer actives pour permettre au personnel de répondre rapidement aux demandes d'assistance provenant des utilisateurs. Dans le cas contraire, les utilisateurs en panne seraient obligés d'attendre que l'employé de l'exploitation se connecte et active une application donnée.

La sécurité et l'optimisation des performances exigent de déconnecter les sessions 5250 inactives

Du point de vue des utilisateurs, une application peut ne pas apprécier une brusque interruption du travail. En outre, l'arrêt d'un travail interactif peut empêcher la mise à  jour des enregistrements de la base de données. Pour répondre à  ces besoins, j'ai développé deux utilitaires baptisés Big Brother et Little Sister.
Lorsque je travaillais en tant qu'étudiant sur un site VAX/VMS, j'ai été amené à  utiliser un programme appelé Big Brother et qui déconnectait les utilisateurs interactifs restés inactifs pendant un certain laps de temps. En contrepartie, l'équipe des programmeurs disposait d'un programme appelé Little Sister qui empêchait Big Brother de les déconnecter. A la fin de mes études et après être entré dans le monde de l'AS/400, j'ai écrit deux applications (un petit programme CL associé à  un programme RPG) pour exécuter des fonctions semblables sur l'AS/400. Ces programmes n'utilisent pas les techniques ILE les plus récentes car ils ont tous deux été conçus en 1994.

Décrypter le code

CBIGBRO : ce programme CL boucle de façon continue, à  la recherche de travaux interactifs inactifs depuis trop longtemps.

RLILSIS : cette exception permet à  des utilisateurs préalablement identifiés de rester connectés, et ce, un certain nombre de fois.

PLILSIS : ce fichier contient un enregistrement pour chaque utilisateur exempté de deconnexion.

PSIGOFF : ce fichier contient les noms des utilisateurs déconnectés ainsi que le nombre d'exemptions auxquels les utilisateurs PLILSIS ont droit chaque jour. On peut utiliser ce fichier pour éduquer les utilisateurs qui ont tendance à  laisser leurs écrans connectés.

QINACTITV : le temps d'inactivité imparti détermin

Lire l'article
Délégation Active Directory : des hauts et des bas

Délégation Active Directory : des hauts et des bas

par Darren Mar-Elia
Les futures versions de nombreux produits Microsoft tels que Exchange Server, Site Server et SQL Server ne fonctionneront plus sur le principe d'annuaires autonomes, mais sur Active Directory (AD). Cette mutation obligera beaucoup d'entreprises à  déployer une infrastructure AD, ce qui leur posera un double défi : la planification d'une implémentation de AD et sa gestion pour répondre aux nombreux besoins des utilisateurs et des applications. L'une des caractéristiques les plus importantes d'Active Directory, à  savoir sa capacité de supporter l'administration déléguée des objets d'annuaire à  des groupes d'utilisateurs spécifiés, oblige à  bien comprendre la sécurité AD et les complexités de sa gestion des permissions. Il est également indispensable de comprendre l'éditeur d'ACL (listes de contrôles d'accès) d'Active Directory et l'assistant Délégation de contrôle, de connaître les défis et les pièges que l'on risque de rencontrer en mettant sur pied une stratégie de délégation AD.

Lire l'article
Donner du sens aux benchmarks sur le Web

Donner du sens aux benchmarks sur le Web

par Pam Jones
En sachant interpréter les données des benchmarks, on arrive à  distinguer les faits des effets de manche Pendant longtemps, les benchmarks standard ont rassuré les acheteurs en les convainquant que le matériel qu'ils achetaient était une bonne affaire, ou, à  tout le moins, que ses performances étaient comparables à  celles des autres. Il est vrai que, bien que fonction des fournisseurs et sujets à  la mauvaise interprétation par les clients, les benchmarks fournissent une base de comparaison, même imparfaite. Or, à  l'ère d'Internet, les benchmarks traditionnels comme TPC-C s'avèrent insuffisants. La soudaine explosion du Web a engendré des charges de travail nouvelles et différentes, hors de portée des moyens de mesure habituels. Les utilisateurs ont du mal à  comparer entre elles les applications des serveurs Web et de e-commerce. Mais voici que, récemment, sont apparus de nouveaux benchmarks Web et Java fort intéressants. Quoique non exhaustifs, ils offrent un point de départ pour évaluer les performances des serveurs AS/400e face aux nouvelles charges de travail du e-commerce. (Pour plus d'informations sur ces benchmarks, reportez-vous à  l'encadré "Benchmarks standard Web et Java").

Les benchmarks fournissent une base de comparaison, même imparfaite

Il existe à  ce jour quatre benchmarks indépendants des fournisseurs, permettant de juger des forces de l'AS/400 en tant que serveur Web. Deux d'entre eux mesurent les services Web directement, les deux autres mesurant les points forts de Java sur une machine. Comme Java a été consacré "langage de l'Internet", et qu'un nombre croissant d'utilisateurs AS/400 utilisent ou envisagent Java pour leurs déploiements Web, ces benchmarks Java sont également utiles pour évaluer le potentiel d'un serveur sur le Web. Outre les quatre benchmarks standard, il existe deux benchmarks internes à  IBM pour le service Java, souvent cités dans la communauté des développeurs sur AS/400.

VolanoMark, de Volano LLC et SPECweb99 de SPEC (Standard Performance Evaluation Corporation), mesurent respectivement les performances des services Java et Web. Ces deux benchmarks, bien qu'instructifs, sont loin de représenter les lourdes charges de travail mixtes et très transactionnelles qui caractérisent de plus en plus l'activité d'un serveur Web. SPECjbb2000 de SPEC et TPC-W du Transaction Processing Council sont les derniers benchmarks qui tentent de reproduire un service transactionnel plus complexe en Java et sur le Web.
Si on analyse ces nouveaux benchmarks Web et Java pour comparer l'AS/400 à  ses concurrents (ou pour l'en défendre), pour de nouvelles applications e-commerce, il est important de comprendre ce que chaque benchmark mesure, et en quoi le cas testé se compare au déploiement concret envisagé. "La meilleure méthode pour un utilisateur, consiste à  mieux comprendre le benchmark, et à  comparer ce modèle… à  son propre environnement applicatif", suggère un document TPC. "S'il y a correspondance approximative, on dispose probablement d'un outil utile et pertinent pour comparer les différents systèmes que l'on envisage d'installer."

Lire l'article
HPRIM-NET : le premier Intranet  médical  développé sous Linux

HPRIM-NET : le premier Intranet médical développé sous Linux

par Catherine China
Intranet privé de transmission de résultats médicaux, HPRIM-NET est destiné aux médecins et laboratoires d'analyses. Souplesse des développements, réduction des coûts, fiabilité du système d'exploitation : autant d'arguments qui ont joué en faveur de l'adoption de Linux par Nagora Communication, la Web agency , chargée de sa mise en oeuvre. Epaulé par l'association HPRIM , le corps médical oeuvre en faveur du développement d'intranets de santé privés, pour choisir librement son système de transmissions de FSE (Feuilles de Soins Electroniques).
C'est ainsi, qu'est né en 1998, le projet de serveur HPRIM-NET du groupe Expand Santé. "Le Réseau Santé Social, intranet d'état, ne disposait pas d'outil de diffusion de résultats d'analyses médicales. Notre objectif était, via cet intranet privé, de permettre aux médecins de récupérer des résultats d'analyses de manière souple, tout en assurant le support du protocole de transmission Kermit utilisé par les laboratoires d'analyses." explique Kevin de Beil, chef de projet chez Nagora Communication, société chargée du développement de la solution. En mai 1998, une première maquette de l'application voit le jour sous Linux.

Un an plus tard, cette maquette est testée avec la participation d'une vingtaine d'éditeurs de logiciels de gestion de cabinet médicaux (Coccilog, Apsisanté…) "Nous avons ensuite développé une nouvelle maquette du serveur HPRIM à  grande échelle, avant de rentrer en phase d'exploitation en janvier 2000." assure Kévin de Beil.

Objectif du projet.
Développement d'une application d'intranet médical sous Linux respectant les spécificités des télétransmissions aux normes Kermit/HPRIM.

Grâce à  la souplesse de Linux et à  la disponibilité gratuite de tous les protocoles de communication, nous avons pu partir sur une maquette technique, l'arrêter en cours de route, repartir sur une autre alternative

Coûts et bénéfices de la solution

Coûts :
Le coût de développement de la solution (y compris le support hot line des éditeurs de logiciels médicaux) a été d'environ 600 kF, soit l'équivalent d'une année-homme.
Coût de la formation Linux par Erian- Concept : environ 45.000 Francs.

Bénéfices :
- Souplesse de développement grâce à  la disponibilité gratuite des codes sources et des protocoles de communications
- Réduction des coûts de développements.
- Simplicité de l'administration.

Nagora Communication : fiche d'identité
Agence Internet spécialisée dans la communication multimédia et la création de sites Web, appartenant au groupe Nagora.

Effectif groupe 1999 : 85 personnes
Siège à  Paris et support de production à  Nice

Lire l'article
Une introduction aux vues indexées

Une introduction aux vues indexées

par Karen Delaney
SQL Server 2000 ouvre une voie alternative pour atteindre des performances maximales


Remarque : Les auteurs ont basé leurs articles SQL Server 2000 sur des versions antérieures à  la Bêta 2. Aussi, il se peut que vous remarquiez quelques différences entre la Bêta 2 et le comportement ou les interfaces décrits dans cet article. En particulier, veuillez noter que la fonction vues indexées ne sera disponible que dans SQL Server 2000 Enterprise Edition. Toutefois, on peut installer Entreprise Edition sur un serveur NT 4 ou Windows 2000 (W2K). On n'est pas obligé d'utiliser NT 4.0 Enterprise ou W2K Advanced Server.

Le puissant et récent support de SQL Server 2000 des vues indexées promet de nous faciliter la tâche tout en exécutant les applications et requêtes plus rapidement. Cela vous semble trop beau pour être vrai ? Les vues indexées permettent de précalculer toutes sortes de jointures, agrégations et formules pour que l'on n'ait plus à  écrire ces conditions dans chaque requête. De plus, Microsoft déclare obtenir des gains de performance de 10 à  100 fois supérieurs au sein des applications et requêtes accédant aux vues indexées par rapport aux tables de base. Bien qu'Oracle supporte une fonctionnalité similaire, appelée vues matérialisées, les nouvelles vues indexées de SQL Server vont bien au-delà  de ce qu'offre la concurrence.

Les nouvelles vues indexées de SQL Server vont bien au-delà  de ce qu'offre la concurrence


Vues indexées ou vues matérialisées ?

Vous avez peut-être entendu parler du concours doté d'un prix d'un million de dollars organisé par Oracle lorsque Microsoft a lancé SQL Server 7.0. Ce concours a été modifié trois fois, mais la version finale ressemble à  ceci :
"Oracle Corp. versera la somme d'un million de dollars à  la première personne capable de démontrer que SQL Server 7.0, avec une base de données TPC-D d'un Tera-octets peut se rapprocher à  1/100 près des meilleures performances publiées à  ce jour par Oracle pour la requête n°5 du standard TPC-D actuel (version 1.3.1). Pour être éligible, le candidat doit réaliser un test TPC-D sur 1 To complet, répondant à  toutes les contraintes de chargement, de mise à  jour et de recherche des données, et publier un rapport intégral de toutes les mesures de performances. Le candidat peut utiliser n'importe quelle plate-forme habilitée à  héberger SQL Server 7.0. Les tests doivent être validés par un organisme certifié TPC".

Oracle était sûr de son fait, car son système prenait déjà  en charge une fonctionnalité appelée "Vues matérialisées". Etant donné que le TPC (Transaction Processing Performance Council) documente de manière exhaustive les spécifications de ses benchmarks, Oracle a été en mesure de créer des vues matérialisées correspondant aux requêtes exécutées au cours du benchmark. Ainsi, il suffit à  la base de données de lire les résultats pré-calculés depuis le disque, sans avoir à  effectuer aucun traitement. Si SQL Server 7.0 avait pris en charge les vues indexées, Oracle n'aurait jamais organisé ce concours.
Les vues indexées de SQL Server 2000 présentent plusieurs avantages par rapport aux vues matérialisées d'Oracle. Tout d'abord, les vues matérialisées ne sont pas dynamiques. Il faut les rafraîchir manuellement pour prendre en compte les modifications intervenues dans les données. Ensuite, l'optimiseur de requêtes d'Oracle ne prévoit pas de façon automatique l'utilisation d'une vue matérialisée si on ne précise pas directement le nom de la vue dans la clause FROM de la requête.

Qu'on utilise des vues indexées ou matérialisées, dans les deux cas, il faut con

Lire l'article
La récupération d’erreurs RPG

La récupération d’erreurs RPG

par Julian Monypenny
Les gestionnaires de conditions peuvent piéger les bogues qui se glissent dans les programmes malgré un coding défensif

Lire l'article
Domestiquer le

Domestiquer le

par Daniel Magid
Stratégies pour gérer un projet de développement d'application Web sur AS/400 Tout le monde veut aller sur le Web. Les sites AS/400 comme les autres. Malheureusement, les utilisateurs AS/400 de longue date sont souvent mal à  l'aise avec les projets Web, parce que ce type de développement doit être géré différemment de celui des applications AS/400 traditionnelles. Apprendre les différences entre deux environnements de développement (AS/400 classique et Web) et les techniques de management du développement sur le Web, comme les systèmes SCM (Software Configuration Management), peut aider les développeurs AS/400 à  s'adapter aux nouvelles réalités du développement d'applications destinées au " Wild, Wild Web ".

Les développeurs Web se préoccupent davantage de la vitesse de développement et de la technologie dernier cri que de la fiabilité et de la sécurité.

Lire l'article
Un accès au niveau enregistrement en Java

Un accès au niveau enregistrement en Java

par Dan Darnell
Comment écrire, lire, mettre à  jour des enregistrements base de données avec la AS/400 Toolbox for Java et un accès au niveau enregistrement

L'une des difficultés que pose la modernisation des applications AS/400 avec le langage Java est de comprendre comment accéder à  une base de données. La plupart des programmeurs Java s'habituent rapidement à  l'API JDBC. Cette dernière permet d'écrire des programmes Java pouvant accéder à  une base de données grâce à  des concepts et des techniques centrés sur SQL. Habituellement, cela implique d'exécuter une requête pour sélectionner un groupe d'enregistrements, puis de traiter ces derniers comme un " ensemble de résultats ". L'approche JDBC convient souvent très bien à  une application, et présente l'avantage d'être une solution inter-plates-formes. Mais il arrive que sur l'AS/400 il soit plus efficace et plus simple d'accéder à  la base de données, comme c'est le cas en RPG et en Cobol, c'est-à -dire un enregistrement à  la fois, soit séquentiellement, soit par clé.
La AS/400 Toolbox for Java d'IBM contient des classes permettant d'accéder à  DB2 UDB (Universal Database) pour l'AS/400, exactement comme avec un programme RPG ou Cobol. Ces classes " de niveau enregistrement " permettent de lire et d'écrire des enregistrements séquentiellement, par numéro d'enregistrement relatif, ou par valeur de clé. Le présent article illustre un exemple d'accès au niveau enregistrement avec la méthode par valeur de clé. Au lieu de détailler une solution applicative particulière, je traite un exemple générique que l'on peut extrapoler à  n'importe quel besoin d'accès de niveau enregistrement.

La AS/400 Toolbox for Java contient des classes permettant d'accéder à  DB2 UDB (Universal Database) pour l'AS/400, exactement comme avec un programme RPG ou Cobol

Lire l'article
Le test d’applications : un art méconnu

Le test d’applications : un art méconnu

par Colin Armitage
Les tests systématiques devraient être placés en haute priorité dans votre service informatique. Combien de temps votre département informatique passe-t-il à  corriger des erreurs et à  effectuer des modifications que vous auriez dû réaliser avant de déployer une application ? Si votre réponse est "beaucoup", alors vous devriez vous appesantir à  nouveau sur un aspect souvent négligé du développement d'applications : les tests.L'année dernière, à  l'occasion du lancement du produit TestBench400, mis sur le marché par mon entreprise, nous avons eu l'occasion de discuter des techniques de test applicatifs en environnement AS/400, avec plusieurs entreprises informatiques basées en Amérique du Nord et en Europe.

Cette expérience nous a permis d'acquérir une perspicacité unique dans les approches de tests en vigueur et dans la manière dont les techniciens professionnels perçoivent généralement l'équilibre indispensable coût/bénéfice quand il s'agit de tests.
La première chose dont nous nous sommes aperçus est le sérieux problème d'image dont souffre l'art de tester les logiciels.

En effet, ce domaine est largement perçu comme étant plus qu'obscur. Aussi, personne ne souhaite s'y investir. De plus, ceux qui acceptent de le faire, voudraient en finir le plus tôt possible. Considérez les scénarii de tests suivants :

La première chose dont nous nous sommes aperçus est le sérieux problème d'image dont souffre l'art de tester les logicielsTests unitaires.

Si vous travaillez sur un site où les développeurs ne sont pas responsables de leurs propres tests unitaires, alors félicitations. Le reste du monde doit avoir perdu la tête.

Après tout, pourquoi se donner tant de peine à  demander aux développeurs d'assurer le bon fonctionnent de leurs propres programmes ? D'une manière générale, les développeurs adorent développer mais ils ont horreur de tester. Seuls de rares et précieux développeurs essaient véritablement de tester les failles potentielles de leurs propre code de manière imaginative. Il ne faut que deux développeurs pour mettre en place une politique de vérification croisée.

En revanche, si on ne peut pas se le permettre, il faut se résigner à  accepter les tests unitaires réalisés par le programmeur ayant conçu le code tels qu'ils sont, c'est-à -dire, incertains.

Cependant, ces tests peuvent avoir un intérêt si vous fournissez des fiches de test prédéfinies et qui attesteront de l'adhésion à  des standards de conception (par exemple pour la présentation de rapports, les couleurs et la disposition des écrans), et de la fiabilité de tous les embranchements à  travers le programme.

Tests des systèmes.


Les tests des systèmes sont souvent réalisés par les membres seniors d'une équipe. Responsables de la livraison de systèmes dans leur ensemble, ces derniers sont généralement motivés pour réaliser les tests nécessaires.

Cependant, il y a deux obstacles majeurs à  la réalisation des tests de systèmes. En effet, les responsables informatiques planifient souvent les tests comme étant la dernière activité importante à  réaliser dans un cycle de développement. D'autre part, ces tests sont généralement programmés alors qu'une date de mise en production du logiciel a déjà  été fixée.

Aussi, lorsque les autres tâches du cycle de développement prennent du retard, le temps disponible pour effectuer les tests s'en trouvent réduits d'autant. Voilà  comment finalement on ne teste que ce que l'on peut, au lieu tester tout ce dont on a besoin.

Par ailleurs, la mauvaise qualité des tests unitaires oblige souvent les testeurs à  reprendre plusieurs fois une même série de tests des systèmes. Après le troisième ou quatrième cycle de tests, même le testeur le plus consciencieux ne testera plus que les corrections. C'est précisément à  ces moments là  que les bogues en profitent pour passer à  travers les mailles du filet.

Tests d'acceptation.

Dans certaines entreprises, les tests

Lire l'article
Des données AS/400 à  portée de main sous Linux

Des données AS/400 à  portée de main sous Linux

par Matthieu Rocher
Comment créer un site Web dynamique sous Linux, qui réponde aux requêtes des utilisateurs en mettant directement les informations de la base DB2 d'un AS/400 à  profit Dans le précédent article de cette série, nous avons vu la possibilité d'accéder à  partir de Linux aux données DB2 depuis un AS/400 en utilisant DB2 Connect. Cette " liaison " mise en place, il devient alors intéressant de construire autour de DB2 Connect des applications utilisant l'interface HTML, qui attaqueront directement les données de l'AS/400. Le but est de créer un site Web dynamique répondant aux requêtes des utilisateurs en utilisant directement les informations de la base DB2 de l'AS/400. Les besoins en solutions de ce genre ne manquent pas, que ce soit pour une utilisation interne ou externe à  l'entreprise.

De plus en plus, l'interface Web devient un moyen de communication entre les collaborateurs au sein d'une entreprise. Elle permet de diffuser des informations d'une façon très simple et économique. La mise à  jour de ces informations en HTML est peu complexe et rapide. Si l'entreprise possède un AS/400, il devient alors très intéressant de créer un site Intranet dynamique. Chaque utilisateur pourra accéder facilement aux informations de la base de données de façon simple. Cette configuration permet l'accès aux données à  des utilisateurs qui n'accèdent pas régulièrement à  l'AS/400 mais ont toujours un besoin d'informations. Il peut convenir également pour les utilisateurs nomades.

De plus en plus, l'interface Web devient un moyen de communication entre les collaborateurs au sein d'une entreprise

Lire l'article
Utilisation de fichiers Zip avec Java

Utilisation de fichiers Zip avec Java

par Julian Monypenny
L'utilitaire Archiver unit les fonctionnalités des fichiers zip et le coding Java Le fichier zip est le format d'archivage de fichiers standard sur PC. Un fichier zip peut stocker des milliers de fichiers, et leurs chemins dans un format comprimé. Les fichiers zip font gagner de la place tout en simplifiant la distribution de fichiers multiples. De nombreuses plates-formes, dont l'AS/400 et le RS/6000, possèdent l'outil zip PkZip.

Java 2 accepte les fichiers zip. Plutôt que de fournir une version Java de PkZip, le SDK (Software Development Kit) Java inclut le package java.util.zip, qui contient des classes permettant de créer et de manipuler des fichiers zip.

Dans cet article, je présente Archiver, un outil zip Java côté client. J'explique comment utiliser Archiver et comment il utilise le package java.util.zip. Bien qu'ayant écrit Archiver comme une application côté client, son traitement des fichiers zip est tout aussi bon avec Java côté serveur.

Lire l'article
Microsoft Application Center 2000

Microsoft Application Center 2000

par Tao Zhou
Pour lancer un site Web majeur, la question de sa disponibilité et de ses performances est une considération essentielle à  prendre en compte. La mise à  l'échelle (ou scaling) matérielle ou logicielle sont des stratégies possibles pour traiter les problèmes de disponibilité et de performances. La première consiste à  installer un système multiprocesseur robuste et évolutif, par exemple un serveur à  8 voies avec des composants matériels redondants, comme serveur Web. La seconde permet de mettre en miroir le contenu Web sur plusieurs serveurs Web formant un cluster. Les serveurs en cluster peuvent avoir des configurations matérielles différentes : combinaison de systèmes anciens et nouveaux, de systèmes lents et rapides. Au fur et à  mesure que le trafic augmente sur le site, il est possible d'ajouter des machines au cluster. Pour mettre en oeuvre le scaling logiciel, vous pouvez utiliser un équilibreur de charge de serveur Web (également baptisé équilibreur de charge IP), logiciel qui dirige un client vers le serveur Web le moins occupé ou le plus approprié parmi plusieurs serveurs prenant en charge un contenu en miroir. Par exemple, pour équilibrer et basculer le trafic du client vers un serveur Web en cas d'incident, vous pouvez utiliser des produits comme le service NLB (Network Load Balancing) pour Windows 2000 ou WLBS (Windows NT Load Balancing Service) de Microsoft, le commutateur Web de Cisco Systems, ou celui de Nortel.

Bien que la mise à  l'échelle logicielle soit plus facile à  adopter et donne plus de flexibilité aux applications Web, que celle matérielle, il n'est pas facile de gérer le contenu et les applications Web entre plusieurs serveurs. Tous les changements apportés au contenu et aux composants applicatifs doivent être déployés sur tous les serveurs. Si le contenu des serveurs n'est pas en miroir, les utilisateurs obtiendront des résultats différents des serveurs d'un même site Web. En cas de panne des serveurs d'un cluster, un équilibreur de charge de serveur Web peut rediriger les requêtes des clients vers des serveurs en bonne santé. Mais il faut tout de même un outil pour surveiller la santé et les performances des serveurs

Pour faciliter la gestion des sites Web et des applications, Microsoft a développé Application Center (AppCenter) 2000, qui peut synchroniser le contenu du Web et déployer des applications COM+ entre plusieurs serveurs d'un cluster. AppCenter peut surveiller et communiquer l'état de santé et les performances des serveurs et du cluster. Outre l'utilisation de NLB pour équilibrer la charge des serveurs Web, AppCenter supporte le service CLB (Component Load Balancing), que Microsoft a retiré de Windows 2000 après la RC1 (Release Candidate 1) de la beta 3. Le service CLB peut équilibrer la charge du niveau médian (c'est-à -dire le niveau logique d'entreprise) des applications Windows à  plusieurs niveaux. Nous allons voir comment installer et tirer parti de la capacité d'AppCenter à  mettre en cluster, équilibrer la charge, et surveiller l'état de santé et les performances des serveurs Web.

Application Center 2000 peut synchroniser le contenu du Web et déployer des applications COM+ entre plusieurs serveurs d'un cluster

Lire l'article
Utiliser les MODS pour organiser et stocker des données

Utiliser les MODS pour organiser et stocker des données

par Jef Sutherland
Qui utilise les MODS dans les applications RPG III ? (à‡a y est, encore une abréviation !) Les structures de données à  occurrences multiples (en anglais, multiple-occurrence data structures ou MODS) sont des outils efficaces mais assez peu utilisés en RPG. Dans le présent article, nous couvrirons les principes de base de la déclaration des MODS et la manière d'écrire et d'extraire des informations dans des structures de données de ce type. Dans un prochain article, nous analyserons un sujet plus pointu : l'utilisation des MODS pour extraire et afficher des enregistrements. Pour déclarer une MODS, il faut créer une structure de données classique puis préciser le nombre d'occurrences

Lire l'article
Jeune et déterminée

Jeune et déterminée

par Isabelle Nougier
Le marché des logiciels libres croit évidemment de façon vertigineuse ces derniers temps, et des sociétés comme IdealX apparaissent aujourd'hui sur le devant de la scène pour promouvoir ces logiciels libres et accompagner les entreprises dans leurs projets Open Source

Lire l'article
Résolution de problèmes avec SQL Profiler

Résolution de problèmes avec SQL Profiler

par Itzik Ben-Gan
Retrouvez le coupable en reconstituant le crime… L'utilisation de l'outil de traçage SQL Profiler de SQL Server 7.0 est comparable à  l'aide qu'apporterait un enquêteur privé, permettant d'optimiser, de dépanner et de gérer un environnement SQL Server. L'article "Comment suivre un événement à  la trace avec SQL Server Profiler" présente l'architecture de suivi de SQL Server 7.0, et indique comment définir au moyen d'une interface graphique une fonction de suivi avec Profiler. Désormais, vous êtes prêt à  plonger dans des eaux plus profondes, et à  réexécuter les actions enregistrées par Profiler, et définir des actions de suivi automatique avec les procédures cataloguées étendues de suivi de SQL Server 7.0. Avec ces bases solides, on peut mettre à  profit Profiler et les procédures cataloguées étendues pour examiner différents cas de figure, allant des requêtes dont l'exécution est anormalement longue aux situations de blocage.

Si on souhaite réexécuter des traces, il faut d'abord mener quelques tâches préliminaires à  bien

Lire l'article
Initiation aux concepts de l’OO (Orienté Objet)

Initiation aux concepts de l’OO (Orienté Objet)

par Sharon L. Hoffman
En apprenant les concepts de base de l'orienté objet, on peut peser le pour et le contre de cette technologieLa technologie OO (Orientée Objet) a la réputation bien méritée d'être gourmande en temps et en argent. Pourtant, ses défenseurs affirment qu'elle permet de freiner la hausse des coûts de maintenance applicative. On comprend donc parfaitement que beaucoup d'utilisateurs hésitent à  investir dans cette technologie sans en avoir au préalable bien cerné les avantages et les risques potentiels. Il ne saurait être question d'expliquer la programmation OO dans un seul article. Cependant, en s'écartant quelques instants des détails de mise en oeuvre de Java et des complications du langage UML (Unified Modeling Language), on voit qu'il y a quelques concepts OO de base permettant de comprendre l'idée fondamentale et d'évaluer l'investissement nécessaire pour récolter les fruits que promet cette méthode de programmation.

Lire l'article
Le triple objectif du commerce électronique

Le triple objectif du commerce électronique

par Nahid Jilovec
Le succès du e-business est subordonné à  un plan d'action à  trois volets : retenir, élargir et étendre Décider comment intégrer le commerce électronique dans une organisation peut s'avérer être une entreprise très décourageante. Avant même d'envisager la création ou l'achat d'une solution, il est indispensable de définir précisément les futures fonctions des applications de commerce électronique.
Celles-ci peuvent varier considérablement en fonction de la nature de l'entreprise, mais les programmes d'action de commerce électronique doivent se fonder sur trois principes de base : élargir la marge de manoeuvre des employés, retenir les clients et étendre l'entreprise.

Lire l'article
Sept éléments à  connaître sur l’écriture de programmes RPG modulaires

Sept éléments à  connaître sur l’écriture de programmes RPG modulaires

par Bryan Meyers
Utilisez au mieux les techniques ILE pour écrire du RPG performant et facile à  gérer

La conversion des programmes RPG existants à  la syntaxe RPG IV n'est que la première phase du remaniement des applications nécessaires pour exploiter ILE (Integrated Language Environment). Il faut aussi concevoir et construire les applications au moyen de techniques et outils de modularisation ILE. Des modules contenant une ou plusieurs procédures présentent de nombreux avantages : meilleure productivité, code plus fiable, maintenance plus facile et, parfois, applications plus performantes que le modèle monolithique traditionnel. Je propose ici quelques pistes sur la manière d'examiner les applications existantes et de repenser les techniques de développement pour écrire un code RPG modulaire.

Des modules contenant une ou plusieurs procédures présentent de nombreux avantages

Lire l'article
Consolidation de serveurs: pour quoi faire ?

Consolidation de serveurs: pour quoi faire ?

par Sharon Hoffman
Tirez parti de la technologie AS/400 pour réduire les coûts induits d'administration des serveurs et améliorez par la même occasion l'efficacité de la gestion de vos systèmes. La consolidation de serveurs englobe toutes les stratégies et technologies capables de réduire le nombre ou la répartition géographique des serveurs que possède et gère une entreprise. Lorsqu'on minimise le nombre de serveurs et les connexions entre eux, les systèmes d'information fonctionnent de façon plus limpide.

Bien que le principal intérêt de la consolidation de serveurs soit de simplifier l'administration des systèmes, cette démarche peut également induire d'autres avantages allant de la réduction des coûts salariaux associés au personnel informatique à  une amélioration de la disponibilité des systèmes.

Bien que le principal intérêt de la consolidation de serveurs soit la simplification de l'administration, elle peut aussi induire d'autres avantage.

La consolidation des serveurs est un sujet d'actualité au sein de l'ensemble de la communauté informatique. Une rapide recherche sur Internet indique qu'IBM, Hewlett-Packard, Sun et Unisys plaident tous en sa faveur. Au départ, ces constructeurs utilisent tous le même raisonnement de base pour promouvoir leurs solutions de consolidation, à  savoir : la consolidation des serveurs contribue à  réduire le coût de revient global des systèmes.

L'AS/400 est une cible intéressante pour la consolidation des serveurs parce que ses points forts classiques, notamment un potentiel d'évolutivité et une fiabilité très élevés, sont essentiels pour la réussite de tout projet de consolidation de serveurs. Les fonctions d'administration système intégrées à  l'AS/400 contribuent également à  faire de cette plate-forme un concurrent efficace sur le marché de la consolidation des serveurs. Ces atouts, qui ont fait leur preuve depuis longtemps, sont désormais secondés par plusieurs nouvelles technologies AS/400, notamment le partitionnement logique, le clustering, le serveur NetFinity intégré, l'AS/400 NetServer et Domino for AS/400. Ces technologies améliorent d'autant le positionnement de l'AS/400 dans l'arène de la consolidation des serveurs.

Faut-il se lancer dans cette voie ? En fait, la réponse à  cette question dépend d'une corrélation complexe entre plusieurs facteurs dont les coûts et la fiabilité des communications, les prix des licences d'utilisation des logiciels, les possibilités d'évolution du matériel et l'attitude des utilisateurs.

Lire l'article
Les BSD, ou quand « logiciels libres » riment avec « fiabilité, performance et sécurité »

Les BSD, ou quand « logiciels libres » riment avec « fiabilité, performance et sécurité »

par René Beretz
Loin des feux de l'actualité, les Unix BSD offrent une fiabilité à  toute épreuve et poussent la spécialisation très loin. Derrière la vague médiatique de Linux, d'autres systèmes d'exploitation jouent, de manière plus discrète, un rôle important. Les Unix BSD occupent une place de choix sur de nombreux serveurs critiques, en particulier dans le monde de l'Internet, grâce à  des caractéristiques inégalées de stabilité. On les appelle aussi la famille *BSD.

L'origine de BSD remonte à  des travaux sur Unix réalisés par le Computer System Research Group à  l'Université de Berkeley, en Californie, dans les années 70. D'où son nom : Berkeley Software Distribution. En s'appuyant sur cette base, une communauté de volontaires s'est créée au début des années quatre-vingt-dix dans le but de fournir un système d'exploitation fiable, performant et sûr. Unix BSD a évolué de version en version jusqu'à  la version 4.4 (4.4BSD) dont les sources ont été publiés en 1994. Entre temps, plusieurs projets ont vu le jour : FreeBSD et NetBSD, auquel s'est ajouté OpenBSD en 1995. Une solution commerciale a également profité du mouvement : BSD/OS. Outre 4.4BSD, les projets intègrent d'autres modules bien rôdés comme le micro noyau Mach de l'Université de Carnegie Mellon et plusieurs outils GNU.

Unix BSD a évolué de version en version jusqu'à  la version 4.4 (4.4BSD) dont les sources ont été publiés en 1994

Chaque BSD poursuit un objectif précis : performance, portabilité ou sécurité. Même si le risque de divergence a existé à  une époque, la tendance est maintenant à  la complémentarité : il existe des passerelles entre les divers développements. Certains développeurs contribuent même à  plusieurs projets. Nicolas Souchu, d'Alcôve, insiste sur cette originalité : " Cette pluralité est un atout pour les entreprises. Il n'existe pas de BSD meilleur que les autres ; mais pour un besoin précis, il existe un BSD mieux adapté que les autres. "

Lire l'article