
Des ponts vers le e-Business
par Sharon L. Hoffman
Le nouveau middleware iSeries Connect d'IBM simplifie l'écriture de solutions
e-business
Pour les développeurs AS/400, l'élément logiciel le plus intéressant de l'annonce
du 3 octobre 2000 d'IBM est un nouveau produit programme sous licence (LPP) (Licensed
Program Product) appelé Connect for iSeries ou iSeries Connect. Dans le cadre
du changement des noms IBM annoncé le 3 octobre, les derniers modèles AS/400 sont
rebaptisés modèles e-Server iSeries 400. Pour en savoir plus sur iSeries 400,
voir l'encadré. Le but d'iSeries Connect est de simplifier l'écriture de solutions
e-business en facilitant l'accès aux ressources iSeries 400, comme les données
stockées dans DB2 Universal Database for AS/400 (DB2 UDB) et les programme RPG
existants. A l'aide de plug-ins et de connecteurs iSeries Connect, on peut développer
des applications capables de transférer des informations entre la logique de gestion
back-end et une interface utilisateur du type Web frontale, comme un catalogue
en ligne.
Il est important de permettre la communication entre les différentes composantes
des applications, les applications e-business présentent en effet généralement
une structure à trois niveaux dans laquelle les différentes parties de l'application
s'exécutent sur des systèmes différents. Ainsi, le navigateur Web qui constitue
le point d'entrée d'un catalogue en ligne fonctionne généralement sur un PC client,
le traitement du caddie peut fort bien se faire sur un RS/6000 ou un iSeries400
jouant le rôle de serveur Web, et la logique de gestion chargée d'honorer les
commandes fonctionne souvent sur un serveur back-end comme un iSeries400. Cette
construction multiniveaux justifie le partitionnement d'une application afin de
créer des programmes indépendants pour chaque fonction majeure. Mais pour que
le partitionnement de l'application soit efficace, il faut que la transmission
d'informations entre les partitions se fasse par une méthode, de préférence hautement
standardisée. C'est précisément le rôle que joue iSeries Connect pour des applications
e-business. Voyons donc de plus près cet outil et en quoi il simplifie le passage
au e-business.
Les applications e-business présentent généralement une structure à trois
niveaux, dans laquelle les différentes parties s'exécutent sur des systèmes différents

Les utilisateurs Linux à la recherche d’une interface standard sur le poste de travail
par René Beretz
Le logiciel Open Source a ses avantages, mais aussi des inconvénients. C'est ainsi
que la bataille pour une interface graphique standard fait aujourd'hui rage, et
que les utilisateurs sont toujours à la recherche d'outils bureautiques vraiments
performants et stables.
Malgré son succès dans le monde des serveurs et de l'Internet, Linux reste encore
confidentiel dans d'autres domaines. Des solutions de bureau ou d'interfaces graphiques
pour les utilisateurs commencent à faire parler d'elles, mais sont encore loin
de s'imposer : Windows et Microsoft Office dominent encore largement le bureau
des utilisateurs. Pourtant, des projets " open source " mobilisent de nombreux
développeurs dans ce domaine. En pratique, deux projets de bureau s'affrontent
: Gnome et KDE.
Chacun apporte son lot d'applications bureautiques, graphiques, Internet et autres.
Pour l'instant, l'existence de ces deux projets empêche l'adoption d'un standard
de fait. Car aucun des deux projets n'est réellement terminé, ni pour l'interface
de base ni en ce qui concerne les applications qu'ils supportent. Mais la séparation
entre deux mondes a priori indépendants et concurrents a tendance à s'estomper.
La différence entre les deux projets réside dans les conceptions du logiciel libre.
Bien que présenté comme un projet complètement " Open source ", KDE ne respecte
pas totalement les critères du logiciel libre spécifiés par la Free Software Foundation
car il dépend d'une bibliothèque propriétaire. En réaction, un autre projet s'est
mis en place : le projet GNOME, qui s'est intégré dans le projet GNU et dont l'impact
grandit très vite. En pratique les deux projets cohabitent dans la plupart des
distributions.
La séparation entre le monde de Gnome et celui de KDE, a priori indépendants
et concurrents, a tendance à s'estomper

L’astuce au secours des petits budgets
par Ed Roth
Bien souvent, les personnels informatiques doivent trouver des astuces et des solutions créatives pour remplacer des équipements dont ils auraient besoin mais qui ne sont pas au budget ou tout simplement qui n'existent pas sur le marché.

JDBC 2.0 : les nouveautés
par Richard Dettinger
Le JDBC 2.0 comprend plusieurs nouvelles méthodes, une fonction de mise à jour
batch et la prise en charge de types de données SQL3
Face à l'expansion de l'univers Java, il est de plus en plus difficile de connaître
toutes les nouvelles fonctions. La release de JDBC (Java Database Connectivity)
2.0 (qui est un élément standard de JDK (Java Development Kit) 1.2, ou Java 2)
illustre bien cette rapide croissance des fonctionnalités. JDBC 2.0 offre de nouvelles
fonctions intéressantes. En avant-première, cet article vous apprend à utiliser
ces nouvelles fonctions sur AS/400 en évitant les pièges. Sauf indication contraire,
les exemples et les diverses méthodes de cet article s'appliquent également aux
drivers JDBC natifs et AS/400 for Java Toolbox. (Pour plus d'informations sur
JDBC et ses drivers, voir la bibliographie)
Avant de pouvoir utiliser JDBC 2.0, il faut bien sûr l'installer sur l'AS/400.
Pour utiliser JDBC 2.0 avec le driver JDBC natif, il faut être en V4R4. On peut
également l'obtenir sous la forme de la PTF 5769JV1 SF55645. Le support de JDBC
2.0 est standard sur l'OS/400 à partir de la V4R5. L'utilisation de JDBC 2.0 avec
le driver JDBC Toolbox est possible à partie de la release Mod 2. Pour apprendre
à utiliser les nouvelles fonctions dans les releases JDK précédentes, voir l'encadré
" Utiliser la fonctionnalité JDBC 2.0 dans JDK 1.1 ". Voyons maintenant de plus
près comment fonctionne le JDBC 2.0.

Linux séduit les éditeurs
par René Beretz
De SAP à Magic, des suites bureautiques à Oracle 8i, les éditeurs prennent de
plus en plus en compte Linux

L’AS/400 place haut la barre de la Business Intelligence
Avec les améliorations apportées au matériel et au logiciel des versions V4R3 et V4R4, l'AS/400 établit le standard en matière d'entrepôts de données
Si vous avez suivi les annonces AS/400 au cours de l'année écoulée, vous savez qu'IBM souligne les possibilités de la plate-forme comme serveur global de business intelligence (BI) . Grâce à de récentes innovations, l'AS/400 n'a jamais été mieux à même de supporter des applications de BI, depuis les magasins de données (dataires) départementaux jusqu'aux entrepôts de données (datawarehouses) de l'ordre du multitéra-octets, à l'échelle de l'entreprise. Dans cet article, nous nous intéressons aux développements matériels et logiciels des V4R3 et V4R4, qui ont amélioré les possibilités des tous derniers serveurs AS/400 de Rochester en matière de BI.
Lire l'article
Mais qu’est ce donc qu’un AGL ?
par Gregory Jarrige - adaptation de Benoît Herr
Voici, à
travers le résumé d'une discussion ayant eu lieu sur un forum Web, des réponses
pratiques à cette question. Techniciens, à vos browsers !

8 sites compatibles Euro en 6 mois et demi
par Dominique Douchet
Un outil adapté et une grande motivation de toute l'équipe projet ont permis à
Landis & Staefa de mener à bien son projet Euro dans des temps records.
L'équipe informatique de Landis & Staefa venait de travailler pendant 9 mois à la personnalisation et à l'implémentation de la V4.05 CD de BPCS, sur les 17 sites européens du groupe. Les utilisateurs et la Direction de l'entreprise se félicitaient du succès de ce projet de mise en conformité an 2000, réalisé dans des délais et avec des coûts maîtrisés.
L'introduction imminente de la monnaie unique européenne a poussé Siemens à s'engager auprès de ses partenaires commerciaux et de ses actionnaires pour effectuer ses échanges en Euro à partir du 1er janvier 1999, et à convertir les divers systèmes comptables des pays concernés dès le 1er octobre 1999. Un nouveau grand chantier informatique venait d'être identifié : rendre rapidement les systèmes compatibles Euro.
Géry Gedlek, Directeur Informatique de Landis & Staefa, était toutefois confiant; l'éditeur, SSA proposait la V4.05 CD de BPCS, compatible an 2000, et s'employait à terminer la mise au point de la V4.05 CDE, compatible Euro. Géry Gedlek se tenait constamment informé des délais de disponibilité de cette dernière version.
En novembre 1998, tout semblait indiquer que la V4.05 CDE et les programmes de conversion associés seraient livrés dans les temps. Géry Gedlek et son équipe disposaient alors d'un délai suffisant pour réaliser les tests d'assurance qualité et la mise en place complexe de la nouvelle version sur les 8 sites européens avant la date butoir.
Le projet concernait les pays suivants : Belgique, France, Espagne, Finlande, Italie, Autriche, Portugal et Hollande.

Les utilisateurs adorent Windows 2000
par Barrie Sosinsky
Notre confrère américain Windows 2000 Magazine a récemment sondé ses lecteurs sur leur opinion vis-à -vis de Windows 2000 Professionnel comme OS d'ordinateur portable et l'utilisation qu'ils en faisaient. Le message est clair : ils adorent Windows 2000 Pro et la plupart, tout domaine d'activité confondu entendent augmenter sensiblement leur utilisation de Windows 2000 sur les portables.

HP et VA Linux optimisent les techniques d’impression Open Source
par Mireille Boris
L'amélioration des techniques d'impression Open Source fait de Linux un OS crédible
en bureautique et en pré-presse. Le code développé pour les pilotes d'imprimantes
est de plus utilisé dans le logiciel embarqué des imprimantes. HP et VA Linux
veillent sur ces travaux.
La première conférence sur les techniques d'impression Open Source, organisée
en août 2000 à Sunnyvale en Californie, a connu un tel succès qu'il a été décidé
d'en faire une manifestation annuelle, relayée par un sommet européen en février
2001. Organisée par Hewlett-Packard (HP) US et VA Linux, elle a réuni des représentants
d' IBM, Sun, Canon, Epson, Lexmark, Okidata, Xerox, Microsoft et des développeurs
appartenant à Samba, Ghostscript, LPRng, CUPS, PDQ, SysAPS, Linux Internationalization
Initiative, Xfree86, GIMP, GNOME, KDE, Red Hat, Suse, le groupe d'impression IETF.
HP a présenté la méthodologie de développement collaboratif de pilotes d'impression
qu'il déploie en interne. Pour ce faire, il a fait appel à plusieurs projets de
développement de pilotes pour imprimantes HP présentés sur Sourceforge (exactement
printing.sourceforge.net), le site que VA Linux dédie aux développeurs. Les services
professionnels de VA Linux travaillent en conjonction avec HP dans le but d'améliorer
le support d'impression de l'imprimante LaserJet de HP sous Linux et Samba (couche
logicielle d'échange de fichiers Windows et Linux) et font évoluer la qualité
et les fonctionnalités de l'ensemble des techniques d'impression Open Source.
Les pilotes disponibles pour la plupart des imprimantes sont le fruit d'un effort
continu. Elles font partie intégrante de la distribution standard, de Suse, Red
Hat à Caldera. On les trouve également sur le site Sourceforge.
La qualité croissante de l'impression sous Linux s'ajoute à l'existence de cartes
graphiques de très bon niveau, en particulier les cartes N'Vidia. Linux ne se
limite plus au back office; il devient un OS crédible en bureautique et en pré-presse.
Une typographie de type nouveau est en train de naître, les Linuxiens rejetant
celle des outils Microsoft, voire Macintosh.
Linux ne se limite plus au back office; il devient un OS crédible en bureautique
et en pré-presse.
Le code des pilotes sous Linux sert parallèlement au développement de code embarqué
dans les imprimantes elles-mêmes. Le noyau Linux y est souvent utilisé par défaut
en raison de sa petite taille. Depuis un an, par exemple, eCOS, OS embarqué de
Red Hat, fonctionne avec les imprimantes laser HL-2400CeN et HL-3400CN de Brother
International. La portabilité et la conception d'eCOS lui permettent de transposer
des applications créées pour la famille d'imprimantes HL-2400CeN et HL-3400CN
vers de futures plates-formes, quelque soit le choix d'unité centrale.
Larry Augustin, PDG de VA Linux, a une formation de graphiste. "Notre compétence
en stations de travail, nous permet de comprendre les problèmes de pré-presse
et de post-presse dans les besoins de stockage multimédia. D'où la maturité de
notre offre NAS 2905, plate-forme ouverte, Mac, NT, Linux ", précise Renaud Larsen,
VA Linux Europe. Un secteur où VA Linux se retrouve en vive concurrence avec HP.
Rassembleur des initiatives Open Source, VA Linux a lancé l'OSDN Open Source Development
Network, un réseau communautaire qui intègre les principaux sites Internet consacrés
aux forums de discussions, au développement et à la distribution des logiciels
OpenSource dont www.sourceforge.net, questionexchange.com, www.freshmeat.net,
www.themes.org, ww.thinkgeek.com, www.slashdot.org, www.linux.com, etc…

Les masques de sous-réseau sans classe
par William Heldman
Quelques trucs et astuces peuvent vous aider à créer des sous-réseaux à l'intérieur
de votre réseau à l'aide des masques de sous-réseaux sans classe.
Si un réseau utilise un masque de sous-réseau par défaut - 255.0.0.0 pour la Classe
A, 255.255.0.0 pour la Classe B ou 255.255.255.0 pour la Classe C - il s'agit
d'un domaine dit " classful ", c'est-à -dire un domaine doté de classes. On sait
alors qu'on travaille dans un domaine ouvert, sans sous-réseau. En réalité, il
vaut mieux dire que le domaine tout entier est un sous-réseau, mais qu'il n'est
pas divisé en sous-sous-réseaux.
Un domaine " classful " est souvent très occupé par la circulation intense créée
par le trafic du réseau empruntant les mêmes chemins. Les commutateurs, qui opèrent
au niveau de la couche de liaison, séparent les domaines de collision, mais ne
font rien pour séparer les domaines de multidiffusions (broadcast), puisque celles-ci
ont lieu au niveau de la couche réseau.
Un routeur permet de grouper différentes parties d'un réseau en sous-réseaux,
afin de diminuer le nombre de broadcasts. Il peut être bon, par exemple, de grouper
le matériel d'infrastructure (y compris la batterie de serveurs et les imprimantes)
dans un sous-réseau, le département marketing dans un autre, et les services commerciaux
dans un autre encore. La constitution de sous-réseaux peut être un outil pratique
pour les réseaux supportant une activité intense.
Dans un réseau divisé en sous-réseaux, on a un domaine sans classe avec un masque
de sous-réseau sans classe. Celui-ci, également baptisé masque de sous-réseau
de longueur variable (VLSM pour Variable Length Subnet Mask), emprunte des bits
à la section hôte d'une adresse IP et les donne à la section réseau de l'adresse.
Les termes " sans classe " et " longueur variable " signifient que les adresses
des masques de sous-réseaux ne sont pas conformes au format des Classes A, B et
C du protocole IP standard.
Le seul problème que pose la mise en place de sous-réseaux est la nécessité d'effectuer
les calculs binaires nécessaires aux adresses des sous-réseaux. Personnellement
je préfère travailler le plus possible avec des nombres décimaux. Je vais donc
parler du routage interdomaine sans classe CIDR (Classless Inter-Domain Routing)
et indiquer une astuce mathématique non binaire très facile. Ces deux informations
sont utiles pour aider à déchiffrer la " notation à barre oblique " que l'on trouve
dans la littérature du support technique et faciliter et accélérer la mise en
place de sous-réseaux.

Un coup d’oeil à Whistler
par John Ruley
Whistler est le nom de code du nouveau système d'exploitation 32 bits qui remplacera
Windows 2000 Professional et Windows Millennium Edition (Windows Me). Microsoft
n'a pas encore livré beaucoup de détails sur Whistler - qui repose sur le noyau
de Windows 2000 et de Windows NT -, pas même la date de sa sortie (probablement
l'an prochain), mais commence à dévoiler et à expliquer certaines de ses caractéristiques.
Il s'agit notamment de modifications de l'interface utilisateur, de l'existence
d'une version personnelle (c'est-à -dire mono-utilisateur) de la technologie Terminal
Services de Windows 2000 Server, et d'une révision drastique du traitement des
DLL par les précédentes versions de Windows 32 bits.

Gérer la croissance de vos applications avec Application Center
par David Chernicoff
Si vous avez déjà été confronté à l'installation, la configuration ou l'administration
de Microsoft Cluster Server ou de Network Load Balancing, vous savez à quel point
cette mission est périlleuse. De plus, malgré sa convivialité améliorée, Windows
2000 n'a pas rendu cette tâche plus facile.
Les fournisseurs ont bien compris l'ampleur du problème que représente la configuration
de MSCS (Microsoft Cluster Server) et ils proposent désormais une multitude de
solutions qui font que les administrateurs système ne sont plus obligés de partir
de zéro pour installer un cluster et le faire fonctionner. Mais peu de solutions
adressent la complexité de configuration de l'équilibrage de charges des applications
avec NLB (Network Load Balancing) et CLB (Component Load Balancing).
L'idée sur laquelle reposent NLB et CLB est simple : si vous voulez accroître
les capacités des applications de votre réseau, alors configurez un serveur pour
qu'il puisse supporter une application en réseau et ajoutez le serveur dans votre
réseau. La possibilité d'utiliser ce type de démarche pour faire monter en charge
les applications est une des composantes fondamentales des montées en charge horizontales
(scale-out) pour Microsoft et de sa stratégie .NET. Microsoft Application Center
2000 est au coeur de la stratégie .NET de Microsoft. Le rôle de Application Center
est d'intégrer et de simplifier la montée en charge des applications, leur gestion
et leur disponibilité.
Le clustering de Application Center n'est pas MSCS, mais plutôt un équilibrage
de charges réseau associé au clustering d'objets COM+. Bien que le clustering
de Application Center n'assure pas le même niveau de tolérance aux pannes que
MSCS, il améliore les performances et ne nécessite pas de matériel spécifique
contrairement à MSCS. Application Center n'exige même pas que les serveurs du
cluster soient identiques, que ce soit en configuration ou en performances. De
plus, Application Center n'offre pas un clustering de type failover à 2 ou 4 voies,
il offre le clustering jusqu'à 32 voies que supporte NLB. L'équilibrage de charges
COM+ est limité à 8 voies, et la complexité des applications tournant sous Application
Center peut cependant limiter le nombre de noeuds du cluster.
Le rôle de Application Center est d'intégrer et de simplifier la montée
en charge des applications, leur gestion et leur disponibilité

Tirer toute la puissance de la console d’administration de Windows 2000
2ème Partie
par Kathy Ivens
Dans la première partie de cet article parue le mois dernier, nos avons vu les
bases de la MMC (Microsoft Management Console). Voici les meilleures surprises
que vous réserve la MMC. Il y a trop de fonctions sympathiques dans la MMC pour
toutes les faire tenir dans cet article. J'ai donc sélectionné mes favorites.

Réussir les montées en charge
par David Chernicoff
La montée en charge des systèmes est un sujet qui tend à énerver les administrateurs système. Est-ce que quiconque fait vraiment évoluer un système dans les environnements de production ? Les entreprises considèrent-elles réellement les possibilités d'upgrade des systèmes comme autre chose qu'une simple ligne dans une check-list d'acquisition des machines ? Que font les administrateurs système lorsqu'un serveur ne peut plus répondre aux besoins des utilisateurs ?

Data Warehouses et Data Marts : quelle différence ?
par Rick Landon
Les vastes entrepôts de données (datawarehouses) donnent une perspective historique
à votre activité ; les magasins de données (datamart), plus petits, servent à
l'analyse rapide.
De nombreuses sociétés s'empressent de mettre en place une solution de business
intelligence (BI) à grand renfort d'entrepôts de données (data warehouse) et de
magasins de données (data marts), mais essayez donc de vous faire expliquer les
différences essentielles entre ces deux systèmes ! Même les conseillers en BI
utilisent indifféremment l'un ou l'autre terme, et les produits de type datamart
prétendant être des entrepôts de données ajoutent à la confusion.
Ce n'est pourtant pas la même chose. Un entrepôt de données contient les données
recueillies au niveau de détail le plus bas, à partir des principaux domaines
d'activité d'une entreprise,tandis qu'un magasin de données concerne un seul département
ou domaine fonctionnel et contient des données agrégées. Dans cet article, j'explique
les fonctions respectives des entrepôts et des magasins, et ose quelques suggestions
quant à l'application pratique de chaque solution.
Un entrepôt de données est une structure qui stocke de vastes quantités
de données nettoyées et transformées, provenant des bases de données de production

Composants : le jeu en vaut-il la chandelle ?
par Cheryl Ross
Les développeurs se jettent à corps perdu dans les composants côté client. Mais
nombreux sont ceux qui attendent encore que les composants middlewares tiennent
leurs promesses.
A première vue, le principe des composants semble être la panacée pour résoudre
les soucis quotidiens du développeur, tels que les délais de mise en production
et la difficulté à gérer le code. A l'instar de briques de Lego, les composants
s'assemblent rapidement et simplement pour permettre aux développeurs de construire
et de maintenir rapidement des applications de gestion. Toutefois, à l'inverse
des composants côté client tels les ActiveX et les JavaBeans, qui ont réussi à
fédérer un soutien non négligeable en leur faveur, les développeurs ne se pressent
pas vers les composants distribués côté serveur. Ces derniers se révèlent notoirement
plus difficiles à mettre en oeuvre. L'apparition d'un nouveau modèle de composants
middlewares dans l'univers de l'informatique distribuée risque de changer sous
peu cet état de fait.

Dilemme : augmenter les effectifs ou les performances machine ?
par Isabelle Nougier
La société Maurin ne pourrait aujourd'hui plus se passer des
produits qui lui ont permis d'absorber un doublement de ses effectifs globaux
sans avoir à augmenter les effectifs de son Service Informatique.Créé en 1871 par Emile Maurin et implanté à Lyon depuis cette même date, le Groupe
Maurin est aujourd'hui l'un des plus grands fournisseurs industriels du pays.
Il est dirigé aujourd'hui par la 4ème et la 5ème génération de Maurin (ce qui
constitue l'une des fiertés du Groupe), et s'organise autour de 2 sociétés d'exploitation,
Emile Maurin et Michaud Chailly, réparties sur 18 sites dispersés sur tout le
territoire français.
Le service informatique est quant à lui centralisé à Lyon. Il jouit d'une forte
culture IBM, et les S/36 des débuts n'ont été remplacés par un AS/400 unique qu'en
1994. Actuellement le matériel se compose d'un AS/400 modèle 620 avec plus de
250 terminaux et une centaine de PC. N'ayant pas succombé aux sirènes des ERP,
qu'elle n'exclut toutefois pas d'adopter un jour, la société utilise aujourd'hui
un logiciel de gestion issu de l'IBM S/36, développé en interne et modifié pour
le passage à l'an 2000. On notera au passage que la société est déjà prête pour
l'Euro !
40000 dossiers clients et 23000 factures sont traités par mois, 300 personnes
sont connectées en permanence , 6 jours sur 7, autant dire que l'informatique
est un élément vital pour la société qui se verrait paralysée en cas de rupture
de service.
La société ayant doublé ses effectifs et son chiffre d'affaire, il fallait
optimiser les performances de l'existant
La société ayant doublé ses effectifs et son chiffre d'affaire en 4 ans, il fallait,
pour que l'informatique s'adapte à cette montée en charge, soit envisager une
augmentation de ses propres effectifs (qui étaient et sont toujours de 10 personnes
dont 7 au développement, une à l'exploitation, une pour la micro et une assistante),
soit adopter des solutions permettant d'optimiser les performances du matériel
existant. C'est la deuxième solution qui a été retenue.
Il fallait donc limiter les pertes de temps dues à d'éventuels bogues, optimiser
les performances de la machine, gérer les pointes d'activité, et assister 2 fois
plus d'utilisateurs qu'auparavant ; l'ensemble de ce cahier des charges paraissait
satisfait par les solutions logicielles de la société Tango/04. Le Groupe Maurin
s'est alors muni de plusieurs modules de la solution VISUAL Control Center de
chez Tango/04, à savoir VISUAL Support Pro, VISUAL Control for Windows, VISUAL
Control for pools et VISUAL Control for jobs. Ces modules ont permis d'augmenter
considérablement l'efficacité de la gestion de tous les problèmes utilisateurs,
et ont permis de d'optimiser les performances de l'AS/400. L'ensemble de ces modules
a très vite été complété par Bug Detector, un autre produit Tango/04, permettant
le monitoring automatique des messages.

Mettre en oeuvre Active Directory
par Darren Mar-Elia
On ne compte plus les articles, les livres blancs et les ouvrages mettant l'accent
sur l'importance d'une bonne planification avant la mise en oeuvre d'Active Directory
(AD) dans votre infrastructure. Car il ne faut pas s'imaginer qu'AD n'est qu'un
changement mineur aux domaines Windows NT 4.0 existant, sous peine de se réserver
une surprise très désagréable. Un service d'annuaire comme AD augmente significativement
à la fois les possibilités d'administration et la complexité de l'infrastructure
d'un réseau.
Loin d'être une simple extension des domaines NT 4.0, AD offre des fonctions telles
que l'administration déléguée et la gestion des ordinateurs basée sur les stratégies
de groupe. Il pourrait même servir de plate-forme critique pour développer des
applications utilisant l'annuaire. Il est non seulement crucial, mais indispensable
de bien mettre en oeuvre cette infrastructure. Nous allons donc examiner un certain
nombre d'aspects techniques et de difficultés, posés par la planification d'une
mise en oeuvre d'AD, depuis la création de l'espace de noms jusqu'à la conception
d'une topologie de duplication.

Mieux qu’un double boot
par John D. Ruley
Au moment de la rédaction de cet article, le sujet a considérablement évolué.
A l'origine j'avais prévu une mise à jour du mode de fonctionnement du double
boot avec Windows Millennium Edition (Windows Me). Dans un précédent article ("
Le blues du double boot " de juin 2000), j'avais parlé du double boot Windows
2000 Professional et Windows 98 et, à mon sens, une mise à jour du sujet pour
Windows Me, le code de base de la dernière version de Windows 9x, s'imposait.
La raison qui justifie le maintien d'un environnement de double boot est simple.
Certains logiciels (notamment de nombreux jeux) tournent sous Windows 9x mais
pas sous Windows 2000. De plus Windows 9x supporte davantage de périphériques
que Windows 2000. Ces types de matériels et de logiciels hérités n'ont pas l'air
d'être en voie de disparition et j'ai donc décidé de configurer mon système pour
qu'il s'initialise soit sous Windows 2000 Pro, soit en Windows 98. Or je viens
de découvrir une alternative qui marche mieux qu'un double boot : le logiciel
VMware 2.0 qui permet d'exécuter Windows 2000 Pro simultanément à un autre OS.
Comparée à un système utilisant VMware, ma précédente méthode de double boot ressemble
à une relique datant de l'Age de Pierre. VMware supporte Windows 2000, Windows
NT 4.0, Windows 9x, Windows 3.1, DOS, FreeBSD et plusieurs versions de Linux,
mais pas Windows Me. J'ai donc désinstallé Windows Me et je suis revenu à Windows
98 pour pouvoir utiliser VMware.
Pour de meilleures performances, VMware requiert un minimum de 96 Mo de RAM, un
processeur à 266 MHz et suffisamment d'espace-disque pour les systèmes d'exploitation
hôte (dans ce cas, Windows 2000) et invité (dans ce cas, Windows 98). Mon système
actuel n'a qu'un processeur à 200 MHz - VMware parvient à tourner, mais sans aucune
chance de remporter un oscar en matière de performances. Avant d'exécuter VMware,
le constructeur recommande de désactiver l'exécution automatique du CD, qui risque
de provoquer des interactions inattendues lors du lancement d'une machine virtuelle
(d'où le VM). Si un double boot est déjà activé, il faut, avant d'installer VMware,
choisir entre la création d'une machine virtuelle autour d'un OS existant ou une
installation propre sur un disque virtuel créé par VMware. C'est cette option
que je suggère.
Les plus consultés sur iTPro.fr
- L’IA dans l’entreprise : questions et pratiques contemporaines
- Être une femme dans la tech en 2025 : comment prendre sa place et évoluer ?
- Les différents types de cyberattaques les plus répandues
- Bilan 2024 de la start-up Nation
- DORA, vecteur d’accélération de la transformation numérique des assureurs
