> Windows
Rationaliser les processus de Change Management

Rationaliser les processus de Change Management

par Paul Schlieben
Une stratégie de workflow efficace et une communication fluide sont les garants d'un système de Change Management bien intégréLorsqu'un système fonctionne 24 heures sur 24 et 7 jours sur 7, et que l'on veut préserver ses week-ends, il faut mettre l'accent sur la haute disponibilité du matériel et de la base de données. Sans oublier que même le matériel le plus fiable ne peut rien si les modifications logicielles sont mal effectuées. Et la modification des logiciels met en péril la disponibilité. C'est pourquoi, face à  une modification logicielle touchant directement des opérations de gestion critiques, il faut disposer d'un excellent système de Change Management. De même qu'une équipe informatique est plus qu'un simple groupe d'individus, un système de Change Management est plus qu'un ensemble d'utilitaires. L'équipe fonctionnera d'autant plus efficacement et intelligemment que les gens communiqueront mieux entre eux. Cela est aussi valable pour un bon système de Change Management. Il y a une nette différence entre un simple ensemble d'utilitaires et un système de Change Management complet mettant en oeuvre une stratégie de workflow efficace. Le workflow est essentiel. Entre le moment où une demande arrive et celui où une modification est déployée, il existe des dizaines de points de communication critiques pour attribuer une tâche, résoudre un conflit de développement, demander un test de code, alerter la direction pour qu'elle examine une requête ou approuve une modification, et autres. Dans un Système Informatique, les messages sont comme des synapses se déclenchant dans le cerveau, plus ils se déclenchent de façon fiable, plus le QI informatique est élevé. Voyons quelques exemples de points de communication critiques dans un bon système de Change Management.
Il faut disposer d'un système de suivi efficace

Lire l'article
Compaq et DC : une histoire d’amour

Compaq et DC : une histoire d’amour

par Benoît Herr
On le sait, dans les offres tournant autour de Windows 2000 DataCenter (DC), service, logiciel et matériel sont intimement liés, ce triptyque se mettant au service de la haute disponibilité. Chez Compaq, l'un des acteurs majeurs de cette nouvelle offre, SYSTEMS Journal a rencontré Robert Vassoyan et Ilham Ouzzani, pour faire un point sur la stratégie du constructeur en la matière. Le programme Windows 2000 Datacenter de Compaq, tout comme les programmes équivalents de ses concurrents, est une solution de haute disponibilité complète, englobant le ou les serveurs, le système d'exploitation Windows 2000 Datacenter de Microsoft, les solutions de stockage, de clustering et d'administration, ainsi que les services d'accompagnement, et clés en main. Ce type de solution n'est commercialisé que par des constructeurs agréés par Microsoft, c'est-à -dire qui ont passé avec succès les tests HCT. Au moment où nous mettions sous presse, ils étaient au nombre de deux : Unisys et Compaq.
D'autres constructeurs sont cependant en cours d'agrément, et devraient arriver sur le marché courant 2001. Certains seront peut-être déjà  dans le circuit au moment où vous lirez ces lignes. Il s'agit de Hewlett-Packard et IBM, talonnés par Fujitsu-Siemens, Stratus, et Dell, et peut-être aussi par Bull, ICL, NEC et Amdahl.

La cible de ce nouvel OS, à  travers lequel Microsoft espère gagner enfin la crédibilité qui lui a jusqu'ici été refusée depuis l'annonce initiale de Windows NT, et des programmes DataCenter des différents constructeurs agrées est très clairement les entreprises ayant besoin de haute disponibilité, et qui ne peuvent pas se permettre d'assumer les coûts d'une interruption de service.
Autrement dit, un marché jusqu'ici réservé aux gros Unix, mainframes, et autres systèmes "propriétaires", comme l'AS/400. Microsoft avoue d'ailleurs humblement son absence de ce marché, puisqu'elle représente selon ses propres dires 1,3% du nombre des serveurs d'entreprise de plus de 100.000$. Lorsqu'on traduit cette présence en chiffre d'affaires, le ratio tombe carrément à  0,5%.
Inversement, ces chiffres signent également le formidable potentiel de développement pour la firme de Redmond sur ce marché. A condition toutefois de se montrer à  la hauteur des attentes des entreprises, qui se proposent là  de lui confier leurs applications vraiment critiques. Mais à  en juger par la façon d'appréhender le problème de Microsoft, tout laisse à  penser que le succès devrait être au rendez-vous.

Au delà  de sa position de précurseur, aux côtés d'Unisys, Compaq, qui équipe l'ensemble des filiales Microsoft à  travers le monde, occupe une place un peu privilégiée dans son partenariat avec Microsoft. Nous avons demandé à  Robert Vassoyan, Directeur Industry Standard Server Division chez Compaq France pour la partie offre matérielle et logicielle, et à  Ilham Ouzzani, Chef de Produit Business Critical Marketing & Développement des Ventes pour la partie services de nous en dire plus.

La cible de ce nouvel OS et des programmes DataCenter des différents constructeurs agrées est très clairement les entreprises qui ne peuvent pas se permettre d'assumer les coûts d'une interruption de service

Lire l'article
Linux et les logiciels libres acquièrent droit de cité dans les entreprises

Linux et les logiciels libres acquièrent droit de cité dans les entreprises

par René Beretz
Tous les témoignages concordent : lorsque Linux est utilisé en entreprise, il suscite un satisfecit général Lentement mais sûrement, Linux et les logiciels libres s'introduisent dans les entreprises. Poussées par l'implication des jeunes embauchés dans cette démarche, les équipes informatiques les expérimentent et les adoptent rapidement. Vite convaincus des qualités de ces solutions, ils les répandent dans leurs entreprises. Et ce qui pouvait passer, au début, pour une mode représente maintenant une évolution technologique significative.

Les solutions basées sur Linux et sur les logiciels " open source " se distinguent avant tout par leur fiabilité

Lire l'article
L’intégrité des données avec les fonctions de hachage unidirectionnel

L’intégrité des données avec les fonctions de hachage unidirectionnel

par Gene Gaunt
De l'usage des blocs élémentaires de la cryptographie pour se protéger contre l'altération des données sensibles Supposons un fichier de données sensibles, que les utilisateurs peuvent visualiser mais non modifier et que les programmes peuvent ouvrir et lire, mais pas mettre à  jour. Supposons que vous vouliez créer des requêtes SQL et des fichiers logiques sur ces champs de données sans processus de cryptage de données. Comment les programmes en lecture seule peuvent-ils détecter facilement si un enregistrement du fichier a été modifié ? Ne serait-il pas intéressant d'avoir un indicateur d'intégrité des données (du genre *INxx) que l'on testerait après un accès en RPG par le code opération CHAIN ?

Supposons qu'un de vos partenaires de commerce électronique demande de vérifier si vous possédez une copie authentique de l'un de ses enregistrements. Pour des raisons de sécurité, il ne veut pas que vous lui envoyiez l'enregistrement. Quel type d' " empreinte digitale " pouvez-vous lui envoyer pour vérifier votre copie ?

Supposons une boutique Web acceptant des commandes par carte de crédit. Une fois la commande traitée, on transmet en toute sécurité le numéro de la carte de crédit à  la banque pour collecter l'argent, après quoi on n'a plus besoin du numéro. Toutefois, on peut fort bien être appelé ultérieurement pour vérifier si un numéro de carte donné a payé pour la commande. Comment le faire sans stocker le numéro dans une base de données, avec tous les risques en cas de divulgation involontaire ultérieure ?

Précisément, la fonction de hachage unidirectionnel est un moyen pratique et rapide d'assurer l'intégrité des données au moment de la lecture de l'enregistrement. Il suffit d'ajouter au fichier critique une colonne qui contiendra une valeur de hachage unidirectionnel des autres colonnes de l'enregistrement. On calculera et écrira cette valeur de hachage dans chaque enregistrement au moment de la création du fichier. Au moment de la lecture de l'enregistrement, on recalculera cette valeur et on la comparera à  la valeur écrite. En cas de différence, le programme pourra signaler à  l'utilisateur que l'enregistrement a été modifié.

Il existe une autre solution moins séduisante au problème de la vérification des données. Elle consiste à  attacher un trigger ou un récepteur de journal au fichier critique, puis à  bâtir une liste de contrôle sécurisée et inaccessible (par les utilisateurs ordinaires). Toutefois, comme les journaux et les triggers ne se déclenchent pas quand les enregistrements sont lus par une application, le timing de cette technique est discutable. La lourdeur des consultations des listes de contrôle risque de freiner les performances du système. Il faut aussi songer à  protéger la liste de contrôle (" contrôler le contrôle "). En revanche, les fonctions de hachage unidirectionnel donnent un accès rapide aux enregistrements avec des blocs élémentaires de cryptographie. Elles peuvent aussi aider à  prouver que l'on possède (ou que l'on a possédé) une information particulière comme un numéro de carte de crédit.

Lire l'article
Comment venir à  bout de l’enfer des DLL

Comment venir à  bout de l’enfer des DLL

par Darren Mar-Elia
Parmi toutes les technologies de Windows 2000, trois fonctions peuvent s'avérer particulièrement intéressantes : WFP (Windows File Protection), les composants SxS (Side-by-Side) et la redirection des DLL. Ces trois fonctions aident les administrateurs systèmes à  résoudre un problème très ennuyeux posé par les DLL, qui empêche deux ou plusieurs applications partageant des composants de fonctionner indépendamment l'une de l'autre. Les nouvelles fonctions de Windows 2000 font un grand pas en avant vers l'élimination de cet obstacle.

Lire l'article
Connecter votre petit réseau à  l’Internet

Connecter votre petit réseau à  l’Internet

par Mark Minasi
Un des principaux problèmes que rencontrent les administrateurs de réseaux est la connexion des LAN à  l'Internet. Ce mois-ci, nous allons donc voir quelles sont les dernières méthodes pour cela et nous comparerons certaines des nouvelles possibilités de routage qu'offrent, aux petits groupes, les fonctions ICS (Internet Sharing Connexion) et NAT (Network Address Translation) de Windows 2000.

Lire l'article
Linux, au coeur des outils de base pour Internet

Linux, au coeur des outils de base pour Internet

par René Beretz
Les sociétés qui se positionnent sur le secteur de l'Internet font naturellement appel à  Linux, autour duquel l'offre est pléthorique et variée. Et d'une redoutable efficacité !

Lire l'article
L’AS/400 place haut la barre de la Business Intelligence

L’AS/400 place haut la barre de la Business Intelligence

Avec les améliorations apportées au matériel et au logiciel des versions V4R3 et V4R4, l'AS/400 établit le standard en matière d'entrepôts de données

Si vous avez suivi les annonces AS/400 au cours de l'année écoulée, vous savez qu'IBM souligne les possibilités de la plate-forme comme serveur global de business intelligence (BI) . Grâce à de récentes innovations, l'AS/400 n'a jamais été mieux à même de supporter des applications de BI, depuis les magasins de données (dataires) départementaux jusqu'aux entrepôts de données (datawarehouses) de l'ordre du multitéra-octets, à l'échelle de l'entreprise. Dans cet article, nous nous intéressons aux développements matériels et logiciels des V4R3 et V4R4, qui ont amélioré les possibilités des tous derniers serveurs AS/400 de Rochester en matière de BI.

Lire l'article
Les prototypes RPG IV en 10 points clés

Les prototypes RPG IV en 10 points clés

par Bryan Meyers
Utilisez les prototypes pour passer des paramètres intelligemment

Lire l'article
Ils ont osé… et ils ont bien fait

Ils ont osé… et ils ont bien fait

par Dominique Douchet
Si le choix était à  refaire 8 ans après, c'est encore à  l'AS/400 en mode client/serveur (choix audacieux pour l'époque) que Messieurs Reitz et Dutsh feraient confiance. Ce qui pouvait sembler être un pari en 1992 s'est avéré être un choix stratégique et une réussite pour la caisse Nationale des Entrepreneurs des Travaux publics (CNETP).
Cet organisme, chargé de gérer les congés payés et le paiement des salariés privés d'emploi du fait des intempéries dans le secteur des Travaux Publics a une tâche de grande envergure puisqu'avec 130 employés, il gère 220000 salariés et 5500 entreprises cotisantes. Un système informatique performant est donc un élément déterminant pour son bon fonctionnement.
Ce système informatique, qui datait des années 70, devenait alors obsolète, et de moins en moins fiable, d'autant que de nombreux développements périphériques s'étaient avérés nécessaires au cours des années pour s'adapter aux évolutions du métier et aux exigences des utilisateurs. D'autre part, les échéances de l'an 2000 et du passage à  l'Euro approchaient; il fallait donc repenser le système d'information.
En 1991, la CNETP décide de la refonte totale du système. Il lui fallait alors un système pouvant s'adapter très facilement aux diverses et nombreuses évolutions législatives et professionnelles, un système qui s'adapte aux adhérents (et surtout pas le contraire), et il lui fallait également aller plus loin dans les automatismes, en privilégiant un faible coût de fonctionnement, même si l'investissement de départ s'avérait un peu élevé, le système étant destiné à  être exploité longtemps (au final, le montant global du projet évoqué ici se situera tout de même aux alentours de 60 à  70MF).

La dissociation de la conception et de la réalisation paraît indispensable pour conserver une plus grande indépendance
Monsieur Reitz, Directeur Informatique de la CNETP

Lire l'article
Les meilleurs utilitaires du nouveau Kit de ressources

Les meilleurs utilitaires du nouveau Kit de ressources

par Michael Otey
Les kits de ressources de Microsoft ont toujours été des mines d'utilitaires d'administration. Le nouveau Kit de ressources de Windows 2000 Professionnel offre la plupart des outils du Kit de ressources de Windows NT 4.0 Workstation, ainsi que des dizaines de nouveaux utilitaires.

Lire l'article
Des clusters sous Linux très  professionnels

Des clusters sous Linux très professionnels

par Mireille Boris
Ce qui techniquement sépare les clusters sous Linux de ceux sous Unix devient aujourd'hui plus mince qu'une feuille de papier à  cigarettes…
Les premiers supportent désormais les versions parallèles d'Oracle et d'Informix, et passent au 64 bits. Leur philosophie : un coût moins élevé que celui des serveurs traditionnels, une mise en oeuvre simple et rapide, la progressivité des performances. Que demande le peuple?

Lire l'article
Les 10 meilleurs outils de sécurité du Kit de ressources de Windows 2000 Server

Les 10 meilleurs outils de sécurité du Kit de ressources de Windows 2000 Server

par Randy Franklin Smith
Lorsque vous découvrirez le Kit de ressources de Windows 2000 Server, vous y trouverez le supplément de documentation et d'utilitaires qui font la richesse d'un kit de ressources Microsoft. Pourtant celui-ci est particulièrement précieux pour les administrateurs qui attachent beaucoup d'importance à  la sécurité. Cet article décrit 10 bonnes raisons liées à  la sécurité pour lesquelles le kit vaut bien le prix qu'il coûte. Nous en profiterons pour souligner les bons points et les inconvénients à  connaître. (Attention de ne pas confondre le kit de ressources Windows 2000 Server avec celui de Windows 2000 Professionnel, qui n'est qu'un sous-ensemble du premier).

Lire l'article
Du nouveau pour les sécurités en V4R5

Du nouveau pour les sécurités en V4R5

par Carol Woodbury
La V4R5 apporte de nombreuses améliorations visant à  améliorer de façon conséquente les sécurités en proposant des points d'exit au niveau des commandes, une compatibilité Kerberos et le coprocesseur cryptographique 4758 Même si, à  première vue, la V4R5 ne semble pas comporter d'importantes améliorations en matière de sécurité, en y regardant de plus près, on change d'avis. En effet, cette version propose davantage de contrôles sur les actions des utilisateurs grâce à  des points d'exit au niveau des commandes, à  l'accès aux services d'authentification de réseau (Kerberos, par exemple) et à  la manipulation de threads permettant aux utilisateurs de se contenter du niveau de sécurité minimum nécessaire pour une tâche donnée. Ajoutons à  cela une configuration TLS (Transport Layer Security) facile, la recherche de virus dans le courrier électronique pour SMTP (Simple Mail Transfer Protocol) et la cryptographie assistée par le hardware. Nous allons approfondir toutes ces fonctionnalités, qui accroissent la sécurité de la machine.

En utilisant des points d'exit, on peut écrire sa propre version de commandes OS/400

Lire l'article
Contrôler les stratégies de groupe

Contrôler les stratégies de groupe

par Randy Franklin Smith
Une stratégie de groupe est un outil complexe qui permet une gestion centralisée des ordinateurs et des utilisateurs de Windows 2000. Mais si on ne comprend pas comment elle est appliquée par Windows 2000, on court le risque de se tirer une balle dans le pied. Il est très facile de mettre en oeuvre une combinaison de paramètres qui s'annulent réciproquement ou provoquent des résultats inattendus. Les stratégies de groupe ne sont pas forcément d'un fonctionnement simple. On peut en effet être persuadé d'avoir activé dans l'ensemble du réseau un paramètre de sécurité important, pour finalement découvrir qu'il a été, par inadvertance, désactivé sur un sous-ensemble de systèmes. Ce type d'erreur peut être simplement gênant, s'il s'agit d'un paramètre administratif, mais dévastateur s'il s'agit d'un paramètre de sécurité. Pour utiliser efficacement la Stratégie de groupe, il faut comprendre comment Windows 2000 utilise les Objets de stratégie de groupe (GPO) pour appliquer les stratégies, la séquence d'application des GPO et les options de traitement qui permettent de l'optimiser.

Lire l'article
Faciliter la migration vers Windows 2000 avec ADMT

Faciliter la migration vers Windows 2000 avec ADMT

par Martin McClean
Au fur et à  mesure que Windows 2000 s'affirme sur le marché informatique, les entreprises sont de plus en plus nombreuses à  envisager la migration de leurs environnements Windows NT 4.0. Pour migrer un réseau de Windows NT 4.0 vers Windows 2000 (en effectuant une migration des forêts entre elles), il existe deux choix possibles : mettre à  niveau les domaines ou les restructurer. Une mise à  niveau des domaines, ou mise à  niveau sur place, consiste à  migrer le PDC et les BDC d'un domaine Windows NT 4.0 vers Windows 2000 Server. C'est la méthode de migration la plus commune et la voie la plus directe, la moins risquée à  suivre.
Une restructuration, ou consolidation de domaines, consiste à  créer une forêt Windows 2000 et à  y migrer les domaines Windows NT 4.0 existants. Cette méthode permet de concevoir une forêt idéale et de consolider ou de fusionner des domaines NT 4.0, si nécessaire. Elle permet aussi de revenir à  l'environnement Windows NT existant à  tout moment, puisqu'elle établit un environnement parallèle pour migrer le réseau. Elle permet donc un développement permanent de la structure Windows 2000, tout en préservant l'ancien environnement de production Windows NT.
Jusqu'à  récemment, la majorité des migrations étaient des mises à  niveau sur place. L'autre méthode, à  savoir la restructuration des domaines, posait souvent des problèmes pour réaliser une migration en douceur des utilisateurs et des groupes entre les domaines. Pour les résoudre, Microsoft a sorti l'outil AMDT (Active Directory Migration Tool). Il s'agit d'un ensemble d'assistants de migration faciles à  utiliser, prenant chacun en charge une tâche distincte. Avec eux, la mise en oeuvre d'une restructuration de domaines devient un jeu d'enfant.

Lire l'article
Linux séduit les éditeurs

Linux séduit les éditeurs

par René Beretz
De SAP à  Magic, des suites bureautiques à  Oracle 8i, les éditeurs prennent de plus en plus en compte Linux

Lire l'article
Data Warehouses et Data Marts : quelle différence ?

Data Warehouses et Data Marts : quelle différence ?

par Rick Landon
Les vastes entrepôts de données (datawarehouses) donnent une perspective historique à  votre activité ; les magasins de données (datamart), plus petits, servent à  l'analyse rapide. De nombreuses sociétés s'empressent de mettre en place une solution de business intelligence (BI) à  grand renfort d'entrepôts de données (data warehouse) et de magasins de données (data marts), mais essayez donc de vous faire expliquer les différences essentielles entre ces deux systèmes ! Même les conseillers en BI utilisent indifféremment l'un ou l'autre terme, et les produits de type datamart prétendant être des entrepôts de données ajoutent à  la confusion.

Ce n'est pourtant pas la même chose. Un entrepôt de données contient les données recueillies au niveau de détail le plus bas, à  partir des principaux domaines d'activité d'une entreprise,tandis qu'un magasin de données concerne un seul département ou domaine fonctionnel et contient des données agrégées. Dans cet article, j'explique les fonctions respectives des entrepôts et des magasins, et ose quelques suggestions quant à  l'application pratique de chaque solution.

Un entrepôt de données est une structure qui stocke de vastes quantités de données nettoyées et transformées, provenant des bases de données de production

Lire l'article
Mais qu’est ce donc qu’un AGL ?

Mais qu’est ce donc qu’un AGL ?

par Gregory Jarrige - adaptation de Benoît Herr
Voici, à  travers le résumé d'une discussion ayant eu lieu sur un forum Web, des réponses pratiques à  cette question. Techniciens, à  vos browsers !

Lire l'article
8 sites compatibles Euro en 6 mois et demi

8 sites compatibles Euro en 6 mois et demi

par Dominique Douchet
Un outil adapté et une grande motivation de toute l'équipe projet ont permis à  Landis & Staefa de mener à  bien son projet Euro dans des temps records. L'équipe informatique de Landis & Staefa venait de travailler pendant 9 mois à  la personnalisation et à  l'implémentation de la V4.05 CD de BPCS, sur les 17 sites européens du groupe. Les utilisateurs et la Direction de l'entreprise se félicitaient du succès de ce projet de mise en conformité an 2000, réalisé dans des délais et avec des coûts maîtrisés. L'introduction imminente de la monnaie unique européenne a poussé Siemens à  s'engager auprès de ses partenaires commerciaux et de ses actionnaires pour effectuer ses échanges en Euro à  partir du 1er janvier 1999, et à  convertir les divers systèmes comptables des pays concernés dès le 1er octobre 1999. Un nouveau grand chantier informatique venait d'être identifié : rendre rapidement les systèmes compatibles Euro. Géry Gedlek, Directeur Informatique de Landis & Staefa, était toutefois confiant; l'éditeur, SSA proposait la V4.05 CD de BPCS, compatible an 2000, et s'employait à  terminer la mise au point de la V4.05 CDE, compatible Euro. Géry Gedlek se tenait constamment informé des délais de disponibilité de cette dernière version. En novembre 1998, tout semblait indiquer que la V4.05 CDE et les programmes de conversion associés seraient livrés dans les temps. Géry Gedlek et son équipe disposaient alors d'un délai suffisant pour réaliser les tests d'assurance qualité et la mise en place complexe de la nouvelle version sur les 8 sites européens avant la date butoir. Le projet concernait les pays suivants : Belgique, France, Espagne, Finlande, Italie, Autriche, Portugal et Hollande.

Lire l'article