Actualités, Dossiers et Ressources IT Professionnelles -
mardi 18 février 2025
>
Windows
Big Brother garde les utilisateurs inactifs à l’oeil
par James Cook
Dans la plupart des environnements AS/400, la sécurité et l'optimisation des performances
exigent de déconnecter les sessions 5250 inactives. Un poste de travail connecté
et sans surveillance constitue une porte d'entrée dans votre AS/400 pour un veilleur
de nuit qui prendrait des cours du soir en informatique, ou un employé mécontent.
Un poste de travail actif monopolise également des ressources systèmes. Il est
également susceptible de provoquer des verrouillages sur un objet empêcher les
sauvegardes de s'effectuer correctement.
Un poste de travail resté connecté peut également occasionner des problèmes plus
subtils. Ainsi, un programme risque d'utiliser la date à laquelle le travail interactif
a été démarré et non la date du jour. Si un utilisateur reste connecté pendant
une semaine, certains programmes seront susceptibles d'utiliser la date de lundi
plutôt que la véritable date pour mettre à jour certains champs.
On peut configurer la valeur système QINACTITV de l'AS/400 de manière à clore
ou à déconnecter des travaux inactifs après un laps de temps déterminé (un travail
déconnecté est placé dans un état dans lequel l'utilisateur peut se reconnecter
et continuer à travailler à partir de l'endroit où il s'était arrêté). Ceci fonctionne
bien.
Toutefois, certains employés risquent de rechigner si leurs sessions interactives
sont interrompues en même temps que celles des autres utilisateurs. Par exemple,
le personnel de l'exploitation exécute probablement des sessions manipulant plusieurs
applications AS/400 (par exemple, la paye, la production de l'usine et la file
d'attente des messages QSYSOPR) en mode break. Ces sessions doivent demeurer actives
pour permettre au personnel de répondre rapidement aux demandes d'assistance provenant
des utilisateurs. Dans le cas contraire, les utilisateurs en panne seraient obligés
d'attendre que l'employé de l'exploitation se connecte et active une application
donnée.
La sécurité et l'optimisation des performances exigent de déconnecter
les sessions 5250 inactives
Du point de vue des utilisateurs, une application peut ne pas apprécier une brusque
interruption du travail. En outre, l'arrêt d'un travail interactif peut empêcher
la mise à jour des enregistrements de la base de données. Pour répondre à ces
besoins, j'ai développé deux utilitaires baptisés Big Brother et Little Sister.
Lorsque je travaillais en tant qu'étudiant sur un site VAX/VMS, j'ai été amené
à utiliser un programme appelé Big Brother et qui déconnectait les utilisateurs
interactifs restés inactifs pendant un certain laps de temps. En contrepartie,
l'équipe des programmeurs disposait d'un programme appelé Little Sister qui empêchait
Big Brother de les déconnecter. A la fin de mes études et après être entré dans
le monde de l'AS/400, j'ai écrit deux applications (un petit programme CL associé
à un programme RPG) pour exécuter des fonctions semblables sur l'AS/400. Ces programmes
n'utilisent pas les techniques ILE les plus récentes car ils ont tous deux été
conçus en 1994.
Décrypter le code
CBIGBRO : ce programme CL boucle de façon continue, à la recherche de travaux
interactifs inactifs depuis trop longtemps.
RLILSIS : cette exception permet à des utilisateurs préalablement identifiés
de rester connectés, et ce, un certain nombre de fois.
PLILSIS : ce fichier contient un enregistrement pour chaque utilisateur
exempté de deconnexion.
PSIGOFF : ce fichier contient les noms des utilisateurs déconnectés ainsi
que le nombre d'exemptions auxquels les utilisateurs PLILSIS ont droit chaque
jour. On peut utiliser ce fichier pour éduquer les utilisateurs qui ont
tendance à laisser leurs écrans connectés.
QINACTITV : le temps d'inactivité imparti détermin
Lire l'article
Délégation Active Directory : des hauts et des bas
par Darren Mar-Elia
Les futures versions de nombreux produits Microsoft tels que Exchange Server,
Site Server et SQL Server ne fonctionneront plus sur le principe d'annuaires autonomes,
mais sur Active Directory (AD). Cette mutation obligera beaucoup d'entreprises
à déployer une infrastructure AD, ce qui leur posera un double défi : la planification
d'une implémentation de AD et sa gestion pour répondre aux nombreux besoins des
utilisateurs et des applications.
L'une des caractéristiques les plus importantes d'Active Directory, à savoir sa
capacité de supporter l'administration déléguée des objets d'annuaire à des groupes
d'utilisateurs spécifiés, oblige à bien comprendre la sécurité AD et les complexités
de sa gestion des permissions. Il est également indispensable de comprendre l'éditeur
d'ACL (listes de contrôles d'accès) d'Active Directory et l'assistant Délégation
de contrôle, de connaître les défis et les pièges que l'on risque de rencontrer
en mettant sur pied une stratégie de délégation AD.
par Pam Jones
En sachant interpréter les données des benchmarks, on arrive à distinguer les
faits des effets de manche
Pendant longtemps, les benchmarks standard ont rassuré les acheteurs en les convainquant
que le matériel qu'ils achetaient était une bonne affaire, ou, à tout le moins,
que ses performances étaient comparables à celles des autres. Il est vrai que,
bien que fonction des fournisseurs et sujets à la mauvaise interprétation par
les clients, les benchmarks fournissent une base de comparaison, même imparfaite.
Or, à l'ère d'Internet, les benchmarks traditionnels comme TPC-C s'avèrent insuffisants.
La soudaine explosion du Web a engendré des charges de travail nouvelles et différentes,
hors de portée des moyens de mesure habituels. Les utilisateurs ont du mal à comparer
entre elles les applications des serveurs Web et de e-commerce. Mais voici que,
récemment, sont apparus de nouveaux benchmarks Web et Java fort intéressants.
Quoique non exhaustifs, ils offrent un point de départ pour évaluer les performances
des serveurs AS/400e face aux nouvelles charges de travail du e-commerce. (Pour
plus d'informations sur ces benchmarks, reportez-vous à l'encadré "Benchmarks
standard Web et Java").
Les benchmarks fournissent une base de comparaison, même imparfaite
Il existe à ce jour quatre benchmarks indépendants des fournisseurs, permettant
de juger des forces de l'AS/400 en tant que serveur Web. Deux d'entre eux mesurent
les services Web directement, les deux autres mesurant les points forts de Java
sur une machine. Comme Java a été consacré "langage de l'Internet", et qu'un nombre
croissant d'utilisateurs AS/400 utilisent ou envisagent Java pour leurs déploiements
Web, ces benchmarks Java sont également utiles pour évaluer le potentiel d'un
serveur sur le Web. Outre les quatre benchmarks standard, il existe deux benchmarks
internes à IBM pour le service Java, souvent cités dans la communauté des développeurs
sur AS/400.
VolanoMark, de Volano LLC et SPECweb99 de SPEC (Standard Performance Evaluation
Corporation), mesurent respectivement les performances des services Java et Web.
Ces deux benchmarks, bien qu'instructifs, sont loin de représenter les lourdes
charges de travail mixtes et très transactionnelles qui caractérisent de plus
en plus l'activité d'un serveur Web. SPECjbb2000 de SPEC et TPC-W du Transaction
Processing Council sont les derniers benchmarks qui tentent de reproduire un service
transactionnel plus complexe en Java et sur le Web.
Si on analyse ces nouveaux benchmarks Web et Java pour comparer l'AS/400 à ses
concurrents (ou pour l'en défendre), pour de nouvelles applications e-commerce,
il est important de comprendre ce que chaque benchmark mesure, et en quoi le cas
testé se compare au déploiement concret envisagé. "La meilleure méthode pour un
utilisateur, consiste à mieux comprendre le benchmark, et à comparer ce modèle…
à son propre environnement applicatif", suggère un document TPC. "S'il y a correspondance
approximative, on dispose probablement d'un outil utile et pertinent pour comparer
les différents systèmes que l'on envisage d'installer."
HPRIM-NET : le premier Intranet médical développé sous Linux
par Catherine China
Intranet privé de transmission de résultats médicaux, HPRIM-NET est destiné aux
médecins et laboratoires d'analyses. Souplesse des développements, réduction des
coûts, fiabilité du système d'exploitation : autant d'arguments qui ont joué en
faveur de l'adoption de Linux par Nagora Communication, la Web agency , chargée
de sa mise en oeuvre.
Epaulé par l'association HPRIM , le corps médical oeuvre en faveur du développement
d'intranets de santé privés, pour choisir librement son système de transmissions
de FSE (Feuilles de Soins Electroniques).
C'est ainsi, qu'est né en 1998, le projet de serveur HPRIM-NET du groupe Expand
Santé. "Le Réseau Santé Social, intranet d'état, ne disposait pas d'outil de diffusion
de résultats d'analyses médicales. Notre objectif était, via cet intranet privé,
de permettre aux médecins de récupérer des résultats d'analyses de manière souple,
tout en assurant le support du protocole de transmission Kermit utilisé par les
laboratoires d'analyses." explique Kevin de Beil, chef de projet chez Nagora Communication,
société chargée du développement de la solution. En mai 1998, une première maquette
de l'application voit le jour sous Linux.
Un an plus tard, cette maquette est testée avec la participation d'une vingtaine
d'éditeurs de logiciels de gestion de cabinet médicaux (Coccilog, Apsisanté…)
"Nous avons ensuite développé une nouvelle maquette du serveur HPRIM à grande
échelle, avant de rentrer en phase d'exploitation en janvier 2000." assure Kévin
de Beil.
Objectif du projet.
Développement d'une application d'intranet médical sous Linux respectant
les spécificités des télétransmissions aux normes Kermit/HPRIM.
Grâce à la souplesse de Linux et à la disponibilité gratuite de tous les
protocoles de communication, nous avons pu partir sur une maquette technique,
l'arrêter en cours de route, repartir sur une autre alternative
Coûts et bénéfices de la solution
Coûts : Le coût de développement de la solution (y compris le support
hot line des éditeurs de logiciels médicaux) a été d'environ 600 kF, soit
l'équivalent d'une année-homme.
Coût de la formation Linux par Erian- Concept : environ 45.000 Francs.
Bénéfices : - Souplesse de développement grâce à la disponibilité gratuite
des codes sources et des protocoles de communications
- Réduction des coûts de développements.
- Simplicité de l'administration.
Nagora Communication : fiche d'identité
Agence Internet spécialisée dans la communication multimédia et la création
de sites Web, appartenant au groupe Nagora.
Effectif groupe 1999 : 85 personnes
Siège à Paris et support de production à Nice
par Karen Delaney SQL Server 2000 ouvre une voie alternative pour atteindre des performances maximales
Remarque : Les auteurs ont basé leurs articles SQL Server 2000 sur des versions
antérieures à la Bêta 2. Aussi, il se peut que vous remarquiez quelques
différences entre la Bêta 2 et le comportement ou les interfaces décrits
dans cet article. En particulier, veuillez noter que la fonction vues indexées
ne sera disponible que dans SQL Server 2000 Enterprise Edition. Toutefois,
on peut installer Entreprise Edition sur un serveur NT 4 ou Windows 2000
(W2K). On n'est pas obligé d'utiliser NT 4.0 Enterprise ou W2K Advanced
Server.
Le puissant et récent support de SQL Server 2000 des vues indexées promet de nous
faciliter la tâche tout en exécutant les applications et requêtes plus rapidement.
Cela vous semble trop beau pour être vrai ? Les vues indexées permettent de précalculer
toutes sortes de jointures, agrégations et formules pour que l'on n'ait plus à
écrire ces conditions dans chaque requête. De plus, Microsoft déclare obtenir
des gains de performance de 10 à 100 fois supérieurs au sein des applications
et requêtes accédant aux vues indexées par rapport aux tables de base. Bien qu'Oracle
supporte une fonctionnalité similaire, appelée vues matérialisées, les nouvelles
vues indexées de SQL Server vont bien au-delà de ce qu'offre la concurrence.
Les nouvelles vues indexées de SQL Server vont bien au-delà de ce qu'offre
la concurrence
Vues indexées ou vues matérialisées ?
Vous avez peut-être entendu parler du concours doté d'un prix d'un million
de dollars organisé par Oracle lorsque Microsoft a lancé SQL Server 7.0.
Ce concours a été modifié trois fois, mais la version finale ressemble à
ceci :
"Oracle Corp. versera la somme d'un million de dollars à la première personne
capable de démontrer que SQL Server 7.0, avec une base de données TPC-D
d'un Tera-octets peut se rapprocher à 1/100 près des meilleures performances
publiées à ce jour par Oracle pour la requête n°5 du standard TPC-D actuel
(version 1.3.1). Pour être éligible, le candidat doit réaliser un test TPC-D
sur 1 To complet, répondant à toutes les contraintes de chargement, de mise
à jour et de recherche des données, et publier un rapport intégral de toutes
les mesures de performances. Le candidat peut utiliser n'importe quelle
plate-forme habilitée à héberger SQL Server 7.0. Les tests doivent être
validés par un organisme certifié TPC".
Oracle était sûr de son fait, car son système prenait déjà en charge une
fonctionnalité appelée "Vues matérialisées". Etant donné que le TPC (Transaction
Processing Performance Council) documente de manière exhaustive les spécifications
de ses benchmarks, Oracle a été en mesure de créer des vues matérialisées
correspondant aux requêtes exécutées au cours du benchmark. Ainsi, il suffit
à la base de données de lire les résultats pré-calculés depuis le disque,
sans avoir à effectuer aucun traitement. Si SQL Server 7.0 avait pris en
charge les vues indexées, Oracle n'aurait jamais organisé ce concours.
Les vues indexées de SQL Server 2000 présentent plusieurs avantages par
rapport aux vues matérialisées d'Oracle. Tout d'abord, les vues matérialisées
ne sont pas dynamiques. Il faut les rafraîchir manuellement pour prendre
en compte les modifications intervenues dans les données. Ensuite, l'optimiseur
de requêtes d'Oracle ne prévoit pas de façon automatique l'utilisation d'une
vue matérialisée si on ne précise pas directement le nom de la vue dans
la clause FROM de la requête.
Qu'on utilise des vues indexées ou matérialisées, dans les deux cas, il
faut con
Lire l'article
La récupération d’erreurs RPG
par Julian Monypenny
Les gestionnaires de conditions peuvent piéger les bogues qui se glissent dans les programmes malgré un coding défensif
par Daniel Magid
Stratégies pour gérer un projet de développement d'application Web sur AS/400
Tout le monde veut aller sur le Web. Les sites AS/400 comme les autres. Malheureusement,
les utilisateurs AS/400 de longue date sont souvent mal à l'aise avec les projets
Web, parce que ce type de développement doit être géré différemment de celui des
applications AS/400 traditionnelles. Apprendre les différences entre deux environnements
de développement (AS/400 classique et Web) et les techniques de management du
développement sur le Web, comme les systèmes SCM (Software Configuration Management),
peut aider les développeurs AS/400 à s'adapter aux nouvelles réalités du développement
d'applications destinées au " Wild, Wild Web ".
Les développeurs Web se préoccupent davantage de la vitesse de développement et
de la technologie dernier cri que de la fiabilité et de la sécurité.
par Dan Darnell
Comment écrire, lire, mettre à jour des enregistrements base
de données avec la AS/400 Toolbox for Java et un accès au niveau enregistrement
L'une des difficultés que pose la modernisation des applications
AS/400 avec le langage Java est de comprendre comment accéder à une base de
données. La plupart des programmeurs Java s'habituent rapidement à l'API JDBC.
Cette dernière permet d'écrire des programmes Java pouvant accéder à une base
de données grâce à des concepts et des techniques centrés sur SQL. Habituellement,
cela implique d'exécuter une requête pour sélectionner un groupe d'enregistrements,
puis de traiter ces derniers comme un " ensemble de résultats ". L'approche
JDBC convient souvent très bien à une application, et présente l'avantage d'être
une solution inter-plates-formes. Mais il arrive que sur l'AS/400 il soit plus
efficace et plus simple d'accéder à la base de données, comme c'est le cas en
RPG et en Cobol, c'est-à -dire un enregistrement à la fois, soit séquentiellement,
soit par clé.
La AS/400 Toolbox for Java d'IBM contient des classes permettant d'accéder à
DB2 UDB (Universal Database) pour l'AS/400, exactement comme avec un programme
RPG ou Cobol. Ces classes " de niveau enregistrement " permettent de lire et
d'écrire des enregistrements séquentiellement, par numéro d'enregistrement relatif,
ou par valeur de clé. Le présent article illustre un exemple d'accès au niveau
enregistrement avec la méthode par valeur de clé. Au lieu de détailler une solution
applicative particulière, je traite un exemple générique que l'on peut extrapoler
à n'importe quel besoin d'accès de niveau enregistrement.
La AS/400 Toolbox for Java contient des classes permettant
d'accéder à DB2 UDB (Universal Database) pour l'AS/400, exactement comme avec
un programme RPG ou Cobol
par Colin Armitage
Les tests systématiques devraient être placés en haute priorité dans votre service
informatique.
Combien de temps votre département informatique passe-t-il à corriger des erreurs
et à effectuer des modifications que vous auriez dû réaliser avant de déployer
une application ? Si votre réponse est "beaucoup", alors vous devriez vous appesantir
à nouveau sur un aspect souvent négligé du développement d'applications : les
tests.L'année dernière, à l'occasion du lancement du produit TestBench400, mis
sur le marché par mon entreprise, nous avons eu l'occasion de discuter des techniques
de test applicatifs en environnement AS/400, avec plusieurs entreprises informatiques
basées en Amérique du Nord et en Europe.
Cette expérience nous a permis d'acquérir une perspicacité unique dans les approches
de tests en vigueur et dans la manière dont les techniciens professionnels perçoivent
généralement l'équilibre indispensable coût/bénéfice quand il s'agit de tests.
La première chose dont nous nous sommes aperçus est le sérieux problème d'image
dont souffre l'art de tester les logiciels.
En effet, ce domaine est largement perçu comme étant plus qu'obscur. Aussi, personne
ne souhaite s'y investir. De plus, ceux qui acceptent de le faire, voudraient
en finir le plus tôt possible. Considérez les scénarii de tests suivants :
La première chose dont nous nous sommes aperçus est le sérieux problème d'image
dont souffre l'art de tester les logicielsTests unitaires.
Si vous travaillez sur un site où les développeurs ne sont pas responsables
de leurs propres tests unitaires, alors félicitations. Le reste du monde doit
avoir perdu la tête.
Après tout, pourquoi se donner tant de peine à demander aux développeurs d'assurer
le bon fonctionnent de leurs propres programmes ? D'une manière générale, les
développeurs adorent développer mais ils ont horreur de tester. Seuls de rares
et précieux développeurs essaient véritablement de tester les failles potentielles
de leurs propre code de manière imaginative. Il ne faut que deux développeurs
pour mettre en place une politique de vérification croisée.
En revanche, si on ne peut pas se le permettre, il faut se résigner à accepter
les tests unitaires réalisés par le programmeur ayant conçu le code tels qu'ils
sont, c'est-à -dire, incertains.
Cependant, ces tests peuvent avoir un intérêt si vous fournissez des fiches de
test prédéfinies et qui attesteront de l'adhésion à des standards de conception
(par exemple pour la présentation de rapports, les couleurs et la disposition
des écrans), et de la fiabilité de tous les embranchements à travers le programme.
Tests des systèmes.
Les tests des systèmes sont souvent réalisés par les membres seniors d'une équipe.
Responsables de la livraison de systèmes dans leur ensemble, ces derniers sont
généralement motivés pour réaliser les tests nécessaires.
Cependant, il y a deux obstacles majeurs à la réalisation des tests de systèmes.
En effet, les responsables informatiques planifient souvent les tests comme étant
la dernière activité importante à réaliser dans un cycle de développement. D'autre
part, ces tests sont généralement programmés alors qu'une date de mise en production
du logiciel a déjà été fixée.
Aussi, lorsque les autres tâches du cycle de développement prennent du retard,
le temps disponible pour effectuer les tests s'en trouvent réduits d'autant. Voilà
comment finalement on ne teste que ce que l'on peut, au lieu tester tout ce dont
on a besoin.
Par ailleurs, la mauvaise qualité des tests unitaires oblige souvent les testeurs
à reprendre plusieurs fois une même série de tests des systèmes. Après le troisième
ou quatrième cycle de tests, même le testeur le plus consciencieux ne testera
plus que les corrections. C'est précisément à ces moments là que les bogues en
profitent pour passer à travers les mailles du filet.
par Matthieu Rocher
Comment créer un site Web dynamique sous Linux, qui réponde aux requêtes des utilisateurs
en mettant directement les informations de la base DB2 d'un AS/400 à profit
Dans le précédent article de cette série, nous avons vu la possibilité d'accéder
à partir de Linux aux données DB2 depuis un AS/400 en utilisant DB2 Connect. Cette
" liaison " mise en place, il devient alors intéressant de construire autour de
DB2 Connect des applications utilisant l'interface HTML, qui attaqueront directement
les données de l'AS/400. Le but est de créer un site Web dynamique répondant aux
requêtes des utilisateurs en utilisant directement les informations de la base
DB2 de l'AS/400. Les besoins en solutions de ce genre ne manquent pas, que ce
soit pour une utilisation interne ou externe à l'entreprise.
De plus en plus, l'interface Web devient un moyen de communication entre les collaborateurs
au sein d'une entreprise. Elle permet de diffuser des informations d'une façon
très simple et économique. La mise à jour de ces informations en HTML est peu
complexe et rapide. Si l'entreprise possède un AS/400, il devient alors très intéressant
de créer un site Intranet dynamique. Chaque utilisateur pourra accéder facilement
aux informations de la base de données de façon simple. Cette configuration permet
l'accès aux données à des utilisateurs qui n'accèdent pas régulièrement à l'AS/400
mais ont toujours un besoin d'informations. Il peut convenir également pour les
utilisateurs nomades.
De plus en plus, l'interface Web devient un moyen de communication entre
les collaborateurs au sein d'une entreprise
par Julian Monypenny
L'utilitaire Archiver unit les fonctionnalités des fichiers zip et le coding Java
Le fichier zip est le format d'archivage de fichiers standard sur PC. Un fichier
zip peut stocker des milliers de fichiers, et leurs chemins dans un format comprimé.
Les fichiers zip font gagner de la place tout en simplifiant la distribution de
fichiers multiples. De nombreuses plates-formes, dont l'AS/400 et le RS/6000,
possèdent l'outil zip PkZip.
Java 2 accepte les fichiers zip. Plutôt que de fournir une version Java de PkZip,
le SDK (Software Development Kit) Java inclut le package java.util.zip, qui contient
des classes permettant de créer et de manipuler des fichiers zip.
Dans cet article, je présente Archiver, un outil zip Java côté client. J'explique
comment utiliser Archiver et comment il utilise le package java.util.zip. Bien
qu'ayant écrit Archiver comme une application côté client, son traitement des
fichiers zip est tout aussi bon avec Java côté serveur.
par Tao Zhou
Pour lancer un site Web majeur, la question de sa disponibilité et de ses performances
est une considération essentielle à prendre en compte. La mise à l'échelle (ou
scaling) matérielle ou logicielle sont des stratégies possibles pour traiter les
problèmes de disponibilité et de performances. La première consiste à installer
un système multiprocesseur robuste et évolutif, par exemple un serveur à 8 voies
avec des composants matériels redondants, comme serveur Web. La seconde permet
de mettre en miroir le contenu Web sur plusieurs serveurs Web formant un cluster.
Les serveurs en cluster peuvent avoir des configurations matérielles différentes
: combinaison de systèmes anciens et nouveaux, de systèmes lents et rapides.
Au fur et à mesure que le trafic augmente sur le site, il est possible d'ajouter
des machines au cluster. Pour mettre en oeuvre le scaling logiciel, vous pouvez
utiliser un équilibreur de charge de serveur Web (également baptisé équilibreur
de charge IP), logiciel qui dirige un client vers le serveur Web le moins occupé
ou le plus approprié parmi plusieurs serveurs prenant en charge un contenu en
miroir. Par exemple, pour équilibrer et basculer le trafic du client vers un serveur
Web en cas d'incident, vous pouvez utiliser des produits comme le service NLB
(Network Load Balancing) pour Windows 2000 ou WLBS (Windows NT Load Balancing
Service) de Microsoft, le commutateur Web de Cisco Systems, ou celui de Nortel.
Bien que la mise à l'échelle logicielle soit plus facile à adopter et donne plus
de flexibilité aux applications Web, que celle matérielle, il n'est pas facile
de gérer le contenu et les applications Web entre plusieurs serveurs. Tous les
changements apportés au contenu et aux composants applicatifs doivent être déployés
sur tous les serveurs. Si le contenu des serveurs n'est pas en miroir, les utilisateurs
obtiendront des résultats différents des serveurs d'un même site Web. En cas de
panne des serveurs d'un cluster, un équilibreur de charge de serveur Web peut
rediriger les requêtes des clients vers des serveurs en bonne santé. Mais il faut
tout de même un outil pour surveiller la santé et les performances des serveurs
Pour faciliter la gestion des sites Web et des applications, Microsoft a développé
Application Center (AppCenter) 2000, qui peut synchroniser le contenu du Web et
déployer des applications COM+ entre plusieurs serveurs d'un cluster. AppCenter
peut surveiller et communiquer l'état de santé et les performances des serveurs
et du cluster. Outre l'utilisation de NLB pour équilibrer la charge des serveurs
Web, AppCenter supporte le service CLB (Component Load Balancing), que Microsoft
a retiré de Windows 2000 après la RC1 (Release Candidate 1) de la beta 3. Le service
CLB peut équilibrer la charge du niveau médian (c'est-à -dire le niveau logique
d'entreprise) des applications Windows à plusieurs niveaux. Nous allons voir comment
installer et tirer parti de la capacité d'AppCenter à mettre en cluster, équilibrer
la charge, et surveiller l'état de santé et les performances des serveurs Web.
Application Center 2000 peut synchroniser le contenu du Web et déployer
des applications COM+ entre plusieurs serveurs d'un cluster
Utiliser les MODS pour organiser et stocker des données
par Jef Sutherland
Qui utilise les MODS dans les applications RPG III ? (à‡a y est, encore une abréviation
!) Les structures de données à occurrences multiples (en anglais, multiple-occurrence
data structures ou MODS) sont des outils efficaces mais assez peu utilisés en
RPG. Dans le présent article, nous couvrirons les principes de base de la déclaration
des MODS et la manière d'écrire et d'extraire des informations dans des structures
de données de ce type. Dans un prochain article, nous analyserons un sujet plus
pointu : l'utilisation des MODS pour extraire et afficher des enregistrements.
Pour déclarer une MODS, il faut créer une structure de données classique puis préciser le nombre d'occurrences
par Isabelle Nougier
Le marché des logiciels libres croit évidemment de façon vertigineuse ces derniers
temps, et des sociétés comme IdealX apparaissent aujourd'hui sur le devant de
la scène pour promouvoir ces logiciels libres et accompagner les entreprises dans
leurs projets Open Source
par Itzik Ben-Gan Retrouvez le coupable en reconstituant le crime…
L'utilisation de l'outil de traçage SQL Profiler de SQL Server 7.0 est comparable
à l'aide qu'apporterait un enquêteur privé, permettant d'optimiser, de dépanner
et de gérer un environnement SQL Server. L'article "Comment suivre un événement
à la trace avec SQL Server Profiler" présente l'architecture de suivi de SQL Server
7.0, et indique comment définir au moyen d'une interface graphique une fonction
de suivi avec Profiler. Désormais, vous êtes prêt à plonger dans des eaux plus
profondes, et à réexécuter les actions enregistrées par Profiler, et définir des
actions de suivi automatique avec les procédures cataloguées étendues de suivi
de SQL Server 7.0. Avec ces bases solides, on peut mettre à profit Profiler et
les procédures cataloguées étendues pour examiner différents cas de figure, allant
des requêtes dont l'exécution est anormalement longue aux situations de blocage.
Si on souhaite réexécuter des traces, il faut d'abord mener quelques tâches
préliminaires à bien
par Sharon L. Hoffman
En apprenant les concepts de base de l'orienté objet, on peut peser le pour et le contre de cette technologieLa technologie OO (Orientée Objet) a la réputation bien méritée d'être gourmande en temps et en argent. Pourtant, ses défenseurs affirment qu'elle permet de freiner la hausse des coûts de maintenance applicative. On comprend donc parfaitement que beaucoup d'utilisateurs hésitent à investir dans cette technologie sans en avoir au préalable bien cerné les avantages et les risques potentiels.
Il ne saurait être question d'expliquer la programmation OO dans un seul article. Cependant, en s'écartant quelques instants des détails de mise en oeuvre de Java et des complications du langage UML (Unified Modeling Language), on voit qu'il y a quelques concepts OO de base permettant de comprendre l'idée fondamentale et d'évaluer l'investissement nécessaire pour récolter les fruits que promet cette méthode de programmation.
par Nahid Jilovec
Le succès du e-business est subordonné à un plan d'action à trois volets : retenir,
élargir et étendre
Décider comment intégrer le commerce électronique dans une organisation peut s'avérer
être une entreprise très décourageante. Avant même d'envisager la création ou
l'achat d'une solution, il est indispensable de définir précisément les futures
fonctions des applications de commerce électronique.
Celles-ci peuvent varier considérablement en fonction de la nature de l'entreprise,
mais les programmes d'action de commerce électronique doivent se fonder sur trois
principes de base : élargir la marge de manoeuvre des employés, retenir les clients
et étendre l'entreprise.
Sept éléments à connaître sur l’écriture de programmes RPG modulaires
par Bryan Meyers
Utilisez au mieux les techniques ILE pour écrire du RPG performant et facile à gérer
La conversion des programmes RPG existants à la syntaxe RPG IV
n'est que la première phase du remaniement des applications nécessaires pour
exploiter ILE (Integrated Language Environment). Il faut aussi concevoir et
construire les applications au moyen de techniques et outils de modularisation
ILE. Des modules contenant une ou plusieurs procédures présentent de nombreux
avantages : meilleure productivité, code plus fiable, maintenance plus facile
et, parfois, applications plus performantes que le modèle monolithique traditionnel.
Je propose ici quelques pistes sur la manière d'examiner les applications existantes
et de repenser les techniques de développement pour écrire un code RPG modulaire.
Des modules contenant une ou plusieurs procédures présentent
de nombreux avantages
par Sharon Hoffman
Tirez parti de la technologie AS/400 pour réduire les coûts induits d'administration
des serveurs et améliorez par la même occasion l'efficacité de la gestion de vos
systèmes.
La consolidation de serveurs englobe toutes les stratégies et technologies capables
de réduire le nombre ou la répartition géographique des serveurs que possède et
gère une entreprise. Lorsqu'on minimise le nombre de serveurs et les connexions
entre eux, les systèmes d'information fonctionnent de façon plus limpide.
Bien que le principal intérêt de la consolidation de serveurs soit de simplifier
l'administration des systèmes, cette démarche peut également induire d'autres
avantages allant de la réduction des coûts salariaux associés au personnel informatique
à une amélioration de la disponibilité des systèmes.
Bien que le principal intérêt de la consolidation de serveurs soit la
simplification de l'administration, elle peut aussi induire d'autres avantage.
La consolidation des serveurs est un sujet d'actualité au sein de l'ensemble
de la communauté informatique. Une rapide recherche sur Internet indique qu'IBM,
Hewlett-Packard, Sun et Unisys plaident tous en sa faveur. Au départ, ces constructeurs
utilisent tous le même raisonnement de base pour promouvoir leurs solutions de
consolidation, à savoir : la consolidation des serveurs contribue à réduire le
coût de revient global des systèmes.
L'AS/400 est une cible intéressante pour la consolidation des serveurs parce que
ses points forts classiques, notamment un potentiel d'évolutivité et une fiabilité
très élevés, sont essentiels pour la réussite de tout projet de consolidation
de serveurs. Les fonctions d'administration système intégrées à l'AS/400 contribuent
également à faire de cette plate-forme un concurrent efficace sur le marché de
la consolidation des serveurs. Ces atouts, qui ont fait leur preuve depuis longtemps,
sont désormais secondés par plusieurs nouvelles technologies AS/400, notamment
le partitionnement logique, le clustering, le serveur NetFinity intégré, l'AS/400
NetServer et Domino for AS/400. Ces technologies améliorent d'autant le positionnement
de l'AS/400 dans l'arène de la consolidation des serveurs.
Faut-il se lancer dans cette voie ? En fait, la réponse à cette question dépend
d'une corrélation complexe entre plusieurs facteurs dont les coûts et la fiabilité
des communications, les prix des licences d'utilisation des logiciels, les possibilités
d'évolution du matériel et l'attitude des utilisateurs.
Les BSD, ou quand « logiciels libres » riment avec « fiabilité, performance et sécurité »
par René Beretz
Loin des feux de l'actualité, les Unix BSD offrent une fiabilité à toute épreuve
et poussent la spécialisation très loin.
Derrière la vague médiatique de Linux, d'autres systèmes d'exploitation jouent,
de manière plus discrète, un rôle important. Les Unix BSD occupent une place de
choix sur de nombreux serveurs critiques, en particulier dans le monde de l'Internet,
grâce à des caractéristiques inégalées de stabilité. On les appelle aussi la famille
*BSD.
L'origine de BSD remonte à des travaux sur Unix réalisés par le Computer System
Research Group à l'Université de Berkeley, en Californie, dans les années 70.
D'où son nom : Berkeley Software Distribution. En s'appuyant sur cette base, une
communauté de volontaires s'est créée au début des années quatre-vingt-dix dans
le but de fournir un système d'exploitation fiable, performant et sûr. Unix BSD
a évolué de version en version jusqu'à la version 4.4 (4.4BSD) dont les sources
ont été publiés en 1994. Entre temps, plusieurs projets ont vu le jour : FreeBSD
et NetBSD, auquel s'est ajouté OpenBSD en 1995. Une solution commerciale a également
profité du mouvement : BSD/OS. Outre 4.4BSD, les projets intègrent d'autres modules
bien rôdés comme le micro noyau Mach de l'Université de Carnegie Mellon et plusieurs
outils GNU.
Unix BSD a évolué de version en version jusqu'à la version 4.4 (4.4BSD)
dont les sources ont été publiés en 1994
Chaque BSD poursuit un objectif précis : performance, portabilité ou sécurité.
Même si le risque de divergence a existé à une époque, la tendance est maintenant
à la complémentarité : il existe des passerelles entre les divers développements.
Certains développeurs contribuent même à plusieurs projets. Nicolas Souchu, d'Alcôve,
insiste sur cette originalité : " Cette pluralité est un atout pour les entreprises.
Il n'existe pas de BSD meilleur que les autres ; mais pour un besoin précis, il
existe un BSD mieux adapté que les autres. "
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel
Toujours activé
Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
Le stockage ou l’accès technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou la personne utilisant le service.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.