
Petit guide du transfert de données sur AS/400
par Ann Hutchins et Michael Otey
Ce tableau synoptique facilite le choix d'un outil de transfert de données
L'AS/400 possède de nombreux outils lui permettant d'échanger des données avec
d'autres plates-formes, de stocker et d'accéder à des fichiers PC standard et
de type Unix (appelés parfois fichiers "stream") et des fichiers de bases de données.
Il n'est pas facile de déterminer le type de transfert ou d'accès aux données
à utiliser du fait que le type de transfert dépend de nombreux facteurs, comme
par exemple le type de fichier concerné par le transfert (fichier de base de données
AS/400 ou un fichier stream).
NEWS/400 et NEWSMAGAZINE ont publié de nombreux articles sur diverses méthodes
de transfert de fichiers sur AS/400 (voir la " Bibliographie du transfert de données
", qui contient la liste des articles et références IBM en la matière). Pour faciliter
le choix d'une méthode, nous avons réalisé le tableau de la figure 1. Elle contient
les différentes méthodes, leurs caractéristiques, leurs avantages et inconvénients
respectifs et le type de fichier auquel elles s'appliquent (base de données ou
stream). Ce tableau synoptique permet de comparer rapidement les méthodes de transfert
pour déterminer la mieux adaptée à chaque cas.
Pour choisir une méthode de transfert de fichiers, le premier critère
à retenir est le type de fichier : stream ou base de données

Linux et les logiciels libres acquièrent droit de cité dans les entreprises
par René Beretz
Tous les témoignages concordent : lorsque Linux est utilisé en entreprise, il
suscite un satisfecit général
Lentement mais sûrement, Linux et les logiciels libres s'introduisent dans les
entreprises. Poussées par l'implication des jeunes embauchés dans cette démarche,
les équipes informatiques les expérimentent et les adoptent rapidement. Vite convaincus
des qualités de ces solutions, ils les répandent dans leurs entreprises. Et ce
qui pouvait passer, au début, pour une mode représente maintenant une évolution
technologique significative.
Les solutions basées sur Linux et sur les logiciels " open source " se
distinguent avant tout par leur fiabilité

L’intégrité des données avec les fonctions de hachage unidirectionnel
par Gene Gaunt
De l'usage des blocs élémentaires de la cryptographie pour se protéger contre
l'altération des données sensibles
Supposons un fichier de données sensibles, que les utilisateurs peuvent visualiser
mais non modifier et que les programmes peuvent ouvrir et lire, mais pas mettre
à jour. Supposons que vous vouliez créer des requêtes SQL et des fichiers logiques
sur ces champs de données sans processus de cryptage de données. Comment les programmes
en lecture seule peuvent-ils détecter facilement si un enregistrement du fichier
a été modifié ? Ne serait-il pas intéressant d'avoir un indicateur d'intégrité
des données (du genre *INxx) que l'on testerait après un accès en RPG par le code
opération CHAIN ?
Supposons qu'un de vos partenaires de commerce électronique demande de vérifier
si vous possédez une copie authentique de l'un de ses enregistrements. Pour des
raisons de sécurité, il ne veut pas que vous lui envoyiez l'enregistrement. Quel
type d' " empreinte digitale " pouvez-vous lui envoyer pour vérifier votre copie
?
Supposons une boutique Web acceptant des commandes par carte de crédit. Une fois
la commande traitée, on transmet en toute sécurité le numéro de la carte de crédit
à la banque pour collecter l'argent, après quoi on n'a plus besoin du numéro.
Toutefois, on peut fort bien être appelé ultérieurement pour vérifier si un numéro
de carte donné a payé pour la commande. Comment le faire sans stocker le numéro
dans une base de données, avec tous les risques en cas de divulgation involontaire
ultérieure ?
Précisément, la fonction de hachage unidirectionnel est un moyen pratique et rapide
d'assurer l'intégrité des données au moment de la lecture de l'enregistrement.
Il suffit d'ajouter au fichier critique une colonne qui contiendra une valeur
de hachage unidirectionnel des autres colonnes de l'enregistrement. On calculera
et écrira cette valeur de hachage dans chaque enregistrement au moment de la création
du fichier. Au moment de la lecture de l'enregistrement, on recalculera cette
valeur et on la comparera à la valeur écrite. En cas de différence, le programme
pourra signaler à l'utilisateur que l'enregistrement a été modifié.
Il existe une autre solution moins séduisante au problème de la vérification des
données. Elle consiste à attacher un trigger ou un récepteur de journal au fichier
critique, puis à bâtir une liste de contrôle sécurisée et inaccessible (par les
utilisateurs ordinaires). Toutefois, comme les journaux et les triggers ne se
déclenchent pas quand les enregistrements sont lus par une application, le timing
de cette technique est discutable. La lourdeur des consultations des listes de
contrôle risque de freiner les performances du système. Il faut aussi songer à
protéger la liste de contrôle (" contrôler le contrôle "). En revanche, les fonctions
de hachage unidirectionnel donnent un accès rapide aux enregistrements avec des
blocs élémentaires de cryptographie. Elles peuvent aussi aider à prouver que l'on
possède (ou que l'on a possédé) une information particulière comme un numéro de
carte de crédit.

Objectif: 100% Linux en 2005
par Isabelle Nougier
Linux constitue aujourd'hui une priorité au sein du département Informatique du
Ministère de la Culture, le DOSI (Département de l'Organisation et des Systèmes
d'Information). En effet, l'objectif fixé à l'horizon 2005 vise l'intégration
de Linux à l'ensemble de tous les serveurs de ses 200 sites.

Les 4 facteurs clés des performances d’Exchange Server
par Paul Robichaux
Dans les chaînes de restauration rapide, il est généralement possible de commander
un menu « plus ». Le principe est simple : vous obtenez plus de nourriture pour
une somme supplémentaire symbolique. Pourquoi ne pas appliquer cette logique à
notre marché ?
Imaginez la conversation suivante entre vous et votre fournisseur de systèmes
:
Vous : " J'aimerais acquérir un serveur bi-processeur Pentium III Xeon avec 512
Mo de RAM et un disque de 9 Go s'il vous plait. "
Le constructeur : " Désirez-vous essayer notre serveur super spécial de la semaine
? Pour seulement 100 Francs de plus, vous obtenez une grappe RAID 5 de 3 disques
de 18 Go et une copie gratuite de Quake III ? "
Si seulement il était possible d'acquérir des systèmes Exchange Server de cette
façon… Une des raisons pour lesquelles il est si difficile de maximiser les performances
d'Exchange Server, est qu'il est très difficile d'isoler un unique facteur qui,
à lui seul, est en mesure de modifier sensiblement les performances. De nombreuses
personnes pensent que les performances d'un ordinateur dépendent exclusivement
de la vitesse d'horloge de son processeur ? à l'ancienne époque, lorsqu'un processeur
8086 cadencé à 4 MHz était considéré comme puissant, cette conviction était peut-être
vraie. Mais avec les ordinateurs et les systèmes d'exploitation actuels, les performances
dépendent généralement de 4 ressources - la CPU, la mémoire, le sous-système de
disques et le réseau - et de la façon dont les applications d'un ordinateur cible
utilisent ces ressources. En comprenant ces ressources et processus, on peut apprendre
comment booster chacune des ressources (et donc les performances qu'on peut en
obtenir) pour en tirer l'efficacité maximum.

Qui veut un annuaire à 100 millions d’entrée ?
par Tony Redmond et Micky Balladelli
Tout le monde est conscient que la base de données SAM de Windows NT est un goulet d'étranglement pour les capacités d'évolution des domaines. En effet, la limite pratique de la SAM se situe à environ 40.000 comptes d'utilisateurs par domaine. Certaines entreprises, qui sont allées jusqu'aux limites supérieures de la SAM et ont créé de très grands domaines, ont constaté que ces derniers sont difficiles à gérer.Windows 2000 repose sur l'annuaire Active Directory (AD), qui est un référentiel des comptes d'utilisateurs et de nombreux autres types d'objets. On peut faire confiance à Microsoft pour ne pas répéter la même erreur une deuxième fois : AD est plus évolutif que la SAM. Mais jusqu'à quel point ? La question mérite d'être posée. Combien d'objets peut-on stocker dans un domaine, quelle est la taille de la base de données, est-elle administrable et quel type de performances peut-on attendre d'Active Directory ?
Pour le savoir, notre confrère américain Windows 2000 Magazine a créé une très grande base de données AD, dont ils ont démontré les capacités au Comdex de Las Vegas en novembre 1999 et lors du lancement de Windows 2000 à San Francisco en février 2000. Cette démonstration de l'évolutivité d'Active Directory montre que la base de données peut contenir 100 millions d'entrées dans un environnement de production réaliste. Avant d'expliquer comment la base de données de démonstration a été construite et de révéler ce que le processus de création a appris sur AD, revenons d'abord sur quelques principes de bases d'AD.

Utiliser des commandes Java dans le Qshell AS/400
par Dan Darnell
L'interpréteur
Qshell de l'AS/400 fournit un environnement permettant de saisir des commandes
Java et d'en visualiser les sorties
L'interpréteur QShell est l'un des éléments les plus importants ajoutés récemment à l'OS/400, en V4R2. Mais celui qui programme surtout en RPG ou en Cobol ne sait peut-être même pas que ce “ système dans le système ” existe. On peut utiliser QShell pour réaliser des tâches essentielles sur l'AS/400, comme la compilation et l'exécution de programmes Java. Etant donné que les environnements shell viennent du monde Unix, la plupart des “ vétérans ” de l'AS/400 trouveront leur utilisation et leur configuration non intuitives. Je me propose de vous familiariser avec la vie dans le shell, pour que vous utilisiez facilement le code Java et que vous compreniez mieux l'environnement qui constitue la base du support runtime Java de l'AS/400. Un coup d'oeil rapide à l'interface QShell et à une poignée d'outils Java intégrés sert d'introduction à l'environnement. Un prochain article expliquera quelques techniques pour maîtriser QShell.
QShell est l'un des éléments les plus importants ajoutés récemment à l'OS/400
Lire l'article
Un accès au niveau enregistrement en Java
par Dan Darnell
Comment écrire, lire, mettre à jour des enregistrements base
de données avec la AS/400 Toolbox for Java et un accès au niveau enregistrement
L'une des difficultés que pose la modernisation des applications
AS/400 avec le langage Java est de comprendre comment accéder à une base de
données. La plupart des programmeurs Java s'habituent rapidement à l'API JDBC.
Cette dernière permet d'écrire des programmes Java pouvant accéder à une base
de données grâce à des concepts et des techniques centrés sur SQL. Habituellement,
cela implique d'exécuter une requête pour sélectionner un groupe d'enregistrements,
puis de traiter ces derniers comme un " ensemble de résultats ". L'approche
JDBC convient souvent très bien à une application, et présente l'avantage d'être
une solution inter-plates-formes. Mais il arrive que sur l'AS/400 il soit plus
efficace et plus simple d'accéder à la base de données, comme c'est le cas en
RPG et en Cobol, c'est-à -dire un enregistrement à la fois, soit séquentiellement,
soit par clé.
La AS/400 Toolbox for Java d'IBM contient des classes permettant d'accéder à
DB2 UDB (Universal Database) pour l'AS/400, exactement comme avec un programme
RPG ou Cobol. Ces classes " de niveau enregistrement " permettent de lire et
d'écrire des enregistrements séquentiellement, par numéro d'enregistrement relatif,
ou par valeur de clé. Le présent article illustre un exemple d'accès au niveau
enregistrement avec la méthode par valeur de clé. Au lieu de détailler une solution
applicative particulière, je traite un exemple générique que l'on peut extrapoler
à n'importe quel besoin d'accès de niveau enregistrement.
La AS/400 Toolbox for Java contient des classes permettant d'accéder à DB2 UDB (Universal Database) pour l'AS/400, exactement comme avec un programme RPG ou Cobol
Lire l'article
Le test d’applications : un art méconnu
par Colin Armitage
Les tests systématiques devraient être placés en haute priorité dans votre service
informatique.
Combien de temps votre département informatique passe-t-il à corriger des erreurs
et à effectuer des modifications que vous auriez dû réaliser avant de déployer
une application ? Si votre réponse est "beaucoup", alors vous devriez vous appesantir
à nouveau sur un aspect souvent négligé du développement d'applications : les
tests.L'année dernière, à l'occasion du lancement du produit TestBench400, mis
sur le marché par mon entreprise, nous avons eu l'occasion de discuter des techniques
de test applicatifs en environnement AS/400, avec plusieurs entreprises informatiques
basées en Amérique du Nord et en Europe.
Cette expérience nous a permis d'acquérir une perspicacité unique dans les approches
de tests en vigueur et dans la manière dont les techniciens professionnels perçoivent
généralement l'équilibre indispensable coût/bénéfice quand il s'agit de tests.
La première chose dont nous nous sommes aperçus est le sérieux problème d'image
dont souffre l'art de tester les logiciels.
En effet, ce domaine est largement perçu comme étant plus qu'obscur. Aussi, personne
ne souhaite s'y investir. De plus, ceux qui acceptent de le faire, voudraient
en finir le plus tôt possible. Considérez les scénarii de tests suivants :
La première chose dont nous nous sommes aperçus est le sérieux problème d'image
dont souffre l'art de tester les logicielsTests unitaires.
Si vous travaillez sur un site où les développeurs ne sont pas responsables
de leurs propres tests unitaires, alors félicitations. Le reste du monde doit
avoir perdu la tête.
Après tout, pourquoi se donner tant de peine à demander aux développeurs d'assurer
le bon fonctionnent de leurs propres programmes ? D'une manière générale, les
développeurs adorent développer mais ils ont horreur de tester. Seuls de rares
et précieux développeurs essaient véritablement de tester les failles potentielles
de leurs propre code de manière imaginative. Il ne faut que deux développeurs
pour mettre en place une politique de vérification croisée.
En revanche, si on ne peut pas se le permettre, il faut se résigner à accepter
les tests unitaires réalisés par le programmeur ayant conçu le code tels qu'ils
sont, c'est-à -dire, incertains.
Cependant, ces tests peuvent avoir un intérêt si vous fournissez des fiches de
test prédéfinies et qui attesteront de l'adhésion à des standards de conception
(par exemple pour la présentation de rapports, les couleurs et la disposition
des écrans), et de la fiabilité de tous les embranchements à travers le programme.
Tests des systèmes.
Les tests des systèmes sont souvent réalisés par les membres seniors d'une équipe.
Responsables de la livraison de systèmes dans leur ensemble, ces derniers sont
généralement motivés pour réaliser les tests nécessaires.
Cependant, il y a deux obstacles majeurs à la réalisation des tests de systèmes.
En effet, les responsables informatiques planifient souvent les tests comme étant
la dernière activité importante à réaliser dans un cycle de développement. D'autre
part, ces tests sont généralement programmés alors qu'une date de mise en production
du logiciel a déjà été fixée.
Aussi, lorsque les autres tâches du cycle de développement prennent du retard,
le temps disponible pour effectuer les tests s'en trouvent réduits d'autant. Voilà
comment finalement on ne teste que ce que l'on peut, au lieu tester tout ce dont
on a besoin.
Par ailleurs, la mauvaise qualité des tests unitaires oblige souvent les testeurs
à reprendre plusieurs fois une même série de tests des systèmes. Après le troisième
ou quatrième cycle de tests, même le testeur le plus consciencieux ne testera
plus que les corrections. C'est précisément à ces moments là que les bogues en
profitent pour passer à travers les mailles du filet.
Tests d'acceptation.
Dans certaines entreprises, les tests

Tout sur l’intégration AS/400-Windows NT/2000
par Michael Otey
Divers outils permettent d'intégrer les systèmes AS/400 et Windows NT/2000 pour
optimiser les investissements de l'entreprise
Il n'est jamais facile d'intégrer des plates-formes différentes. Chaque système
a ses propres particularités et c'est encore plus vrai dans le cas de Windows
NT/2000 et de l'AS/400. De nombreuses entreprises utilisent les deux à la fois,
mais peu d'entre elles mélangent leurs fonctions. L'AS/400 exécute ses propres
applications, généralement de gestion classique (saisie de commandes, facturation,
par exemple), tandis que Windows NT/2000 est en principe utilisé pour le service
de fichiers et d'impression et pour la messagerie électronique.
Quiconque découvre le monde de l'AS/400 suppose peut-être qu'il est facile de
faire travailler les deux plates-formes ensemble, moyennant quelques rapides appels
à la hot-line. Après tout, deux ténors comme IBM et Microsoft ont certainement
des équipes spécialisées dans l'intégration des deux plates-formes.
Mais, il suffit d'avoir participé à des projets nécessitant l'intégration du couple
Windows-AS/400, pour savoir que cette situation idyllique est loin de la vérité.
Appelez IBM à propos de problèmes Windows NT/2000 : on vous aiguillera rapidement
sur les services ConsultLine, payables à l'heure et onéreux. Appelez Microsoft
pour soulever des problèmes AS/400, on vous demandera probablement : " Qu'est-ce
qu'un AS/400 ? ".
Heureusement, l'AS/400 et Windows NT/2000 possèdent tous deux une palette d'outils
permettant d'intégrer les plates-formes. Je couvre les plus importants de ces
outils d'intégration ici. Je commence par les outils d'intégration TCP/IP de base
présents sur les deux systèmes, avec quelques conseils propres à chaque plate-forme.
Ensuite, je parle des fonctions d'intégration les plus utiles de Client Access
d'IBM. Enfin, je montre comment utiliser la fonction NetServer de l'AS/400 pour
intégrer directement l'AS/400 dans le réseau Windows NT/2000 sans utiliser Client
Access.
L'AS/400 et Windows NT/2000 possèdent tous deux une palette d'outils permettant
d'intégrer les plates-formes

Les 10 meilleurs outils de sécurité du Kit de ressources de Windows 2000 Server
par Randy Franklin Smith
Lorsque vous découvrirez le Kit de ressources de Windows 2000 Server, vous y trouverez
le supplément de documentation et d'utilitaires qui font la richesse d'un kit
de ressources Microsoft. Pourtant celui-ci est particulièrement précieux pour
les administrateurs qui attachent beaucoup d'importance à la sécurité.
Cet article décrit 10 bonnes raisons liées à la sécurité pour lesquelles le kit
vaut bien le prix qu'il coûte. Nous en profiterons pour souligner les bons points
et les inconvénients à connaître. (Attention de ne pas confondre le kit de ressources
Windows 2000 Server avec celui de Windows 2000 Professionnel, qui n'est qu'un
sous-ensemble du premier).

Du nouveau pour les sécurités en V4R5
par Carol Woodbury
La V4R5 apporte de nombreuses améliorations visant à améliorer de façon conséquente
les sécurités en proposant des points d'exit au niveau des commandes, une compatibilité
Kerberos et le coprocesseur cryptographique 4758
Même si, à première vue, la V4R5 ne semble pas comporter d'importantes améliorations
en matière de sécurité, en y regardant de plus près, on change d'avis. En effet,
cette version propose davantage de contrôles sur les actions des utilisateurs
grâce à des points d'exit au niveau des commandes, à l'accès aux services d'authentification
de réseau (Kerberos, par exemple) et à la manipulation de threads permettant aux
utilisateurs de se contenter du niveau de sécurité minimum nécessaire pour une
tâche donnée. Ajoutons à cela une configuration TLS (Transport Layer Security)
facile, la recherche de virus dans le courrier électronique pour SMTP (Simple
Mail Transfer Protocol) et la cryptographie assistée par le hardware. Nous allons
approfondir toutes ces fonctionnalités, qui accroissent la sécurité de la machine.
En utilisant des points d'exit, on peut écrire sa propre version de commandes
OS/400

MandrakeSoft : la magie de Linux
par Isabelle Nougier <br />Le système d'exploitation Linux est devenu en quelques années un acteur majeur sur le marché des serveurs. Il se développe même beaucoup plus vite que les prévisions des spécialistes. En effet les analystes avaient prévu une place de numéro 2 derrière Windows NT en 2002 et c'est arrivé dès 1999.
Lire l'article
La sécurité de Windows 2000 et d’Exchange 2000
par Jan De Clercq
Du fait de son étroite intégration avec Active Directory (AD) de Windows 2000,
Exchange 2000 Server profite non seulement des fonctions de sécurité de ce dernier,
mais bénéficie aussi d'autres améliorations de la sécurité Windows 2000, notamment
en matière d'authentification, de contrôle d'accès et d'audit.

La récupération d’erreurs RPG
par Julian Monypenny
Les gestionnaires de conditions peuvent piéger les bogues qui se glissent dans les programmes malgré un coding défensif

Domestiquer le
par Daniel Magid
Stratégies pour gérer un projet de développement d'application Web sur AS/400
Tout le monde veut aller sur le Web. Les sites AS/400 comme les autres. Malheureusement,
les utilisateurs AS/400 de longue date sont souvent mal à l'aise avec les projets
Web, parce que ce type de développement doit être géré différemment de celui des
applications AS/400 traditionnelles. Apprendre les différences entre deux environnements
de développement (AS/400 classique et Web) et les techniques de management du
développement sur le Web, comme les systèmes SCM (Software Configuration Management),
peut aider les développeurs AS/400 à s'adapter aux nouvelles réalités du développement
d'applications destinées au " Wild, Wild Web ".
Les développeurs Web se préoccupent davantage de la vitesse de développement et
de la technologie dernier cri que de la fiabilité et de la sécurité.

Sept éléments à connaître sur l’écriture de programmes RPG modulaires
par Bryan Meyers
Utilisez au mieux les techniques ILE pour écrire du RPG performant et facile à gérer
La conversion des programmes RPG existants à la syntaxe RPG IV n'est que la première phase du remaniement des applications nécessaires pour exploiter ILE (Integrated Language Environment). Il faut aussi concevoir et construire les applications au moyen de techniques et outils de modularisation ILE. Des modules contenant une ou plusieurs procédures présentent de nombreux avantages : meilleure productivité, code plus fiable, maintenance plus facile et, parfois, applications plus performantes que le modèle monolithique traditionnel. Je propose ici quelques pistes sur la manière d'examiner les applications existantes et de repenser les techniques de développement pour écrire un code RPG modulaire.
Des modules contenant une ou plusieurs procédures présentent de nombreux avantages
Lire l'article
Consolidation de serveurs: pour quoi faire ?
par Sharon Hoffman
Tirez parti de la technologie AS/400 pour réduire les coûts induits d'administration
des serveurs et améliorez par la même occasion l'efficacité de la gestion de vos
systèmes.
La consolidation de serveurs englobe toutes les stratégies et technologies capables
de réduire le nombre ou la répartition géographique des serveurs que possède et
gère une entreprise. Lorsqu'on minimise le nombre de serveurs et les connexions
entre eux, les systèmes d'information fonctionnent de façon plus limpide.
Bien que le principal intérêt de la consolidation de serveurs soit de simplifier
l'administration des systèmes, cette démarche peut également induire d'autres
avantages allant de la réduction des coûts salariaux associés au personnel informatique
à une amélioration de la disponibilité des systèmes.
Bien que le principal intérêt de la consolidation de serveurs soit la
simplification de l'administration, elle peut aussi induire d'autres avantage.
La consolidation des serveurs est un sujet d'actualité au sein de l'ensemble
de la communauté informatique. Une rapide recherche sur Internet indique qu'IBM,
Hewlett-Packard, Sun et Unisys plaident tous en sa faveur. Au départ, ces constructeurs
utilisent tous le même raisonnement de base pour promouvoir leurs solutions de
consolidation, à savoir : la consolidation des serveurs contribue à réduire le
coût de revient global des systèmes.
L'AS/400 est une cible intéressante pour la consolidation des serveurs parce que
ses points forts classiques, notamment un potentiel d'évolutivité et une fiabilité
très élevés, sont essentiels pour la réussite de tout projet de consolidation
de serveurs. Les fonctions d'administration système intégrées à l'AS/400 contribuent
également à faire de cette plate-forme un concurrent efficace sur le marché de
la consolidation des serveurs. Ces atouts, qui ont fait leur preuve depuis longtemps,
sont désormais secondés par plusieurs nouvelles technologies AS/400, notamment
le partitionnement logique, le clustering, le serveur NetFinity intégré, l'AS/400
NetServer et Domino for AS/400. Ces technologies améliorent d'autant le positionnement
de l'AS/400 dans l'arène de la consolidation des serveurs.
Faut-il se lancer dans cette voie ? En fait, la réponse à cette question dépend
d'une corrélation complexe entre plusieurs facteurs dont les coûts et la fiabilité
des communications, les prix des licences d'utilisation des logiciels, les possibilités
d'évolution du matériel et l'attitude des utilisateurs.

TSAC : le joyau du SP1 pour les services de terminaux
par Sean Daily
Le but ultime des services d'accès distant dans un réseau est de permettre aux
utilisateurs distants d'accéder aux ressources du LAN. Les connexions RAS traditionnelles,
telles que celles qu'assurent Windows 2000 et Windows NT, fonctionnent bien pour
les besoins de connectivité de base des utilisateurs - par exemple les e-mails
ou la navigation sur Internet. Mais des problèmes peuvent survenir lorsque l'on
essaie d'en étendre l'utilisation, pour permettre aux utilisateurs d'accéder à
distance, librement, aux outils bureautiques.

Intel, AMD et les processeurs 64 bit
par Michael Otey
Prolongeant leur rivalité dans le domaine des puces 32 bit à la prochaine génération
informatique, Intel et AMD prévoient de sortir de nouveaux processeurs 64 bits
compatibles x86 en 2001. Mais les deux grands rivaux ont adopté des voies différentes
pour leurs prochaines générations de processeurs.
Tout comme le bond en avant de puissance obtenu lorsque la plate-forme PC a évolué
pour passer du processeur 286 à 16 bits au 386 à 32 bits, le saut au 64 bits promet
de faire grimper la technologie PC vers de nouveaux sommets dans l'entreprise.
Certes les processeurs 64 bits ne feront pas se calculer plus vite les tableaux
Excel, ni tourner plus vite la plupart des autres applications. Mais les nouveaux
processeurs répondront à l'éternel besoin d'augmentation de la puissance du processeur
qu'exprime l'informatique haut de gamme. Ce sont les stations graphiques haut
de gamme et les grands systèmes de bases de données, tels que Microsoft SQL Server
et Oracle, qui bénéficieront le plus directement des nouveaux processeurs. Les
sociétés .com (prononcer " dot com ") et le nombre croissant d'applications d'aide
à la décision et de data warehouse sont généralement les forces motrices à l'origine
de la croissance massive des bases de données. Ces applications tireront moins
parti des augmentations de vitesse brute des processeurs, que d'une plus grande
capacité d'adressage de la mémoire. Les applications de bases de données en particulier
sont terriblement gourmandes en RAM. Elles sont d'autant plus performantes qu'elles
ont de la mémoire.
L'actuelle génération de processeurs 32 bits peut traiter en natif jusqu'à 4 Go
(232 octets) de données. Sur ces 4 Go adressables, Windows 2000 Server réserve
2 Go de stockage pour son propre usage et en laisse 2 pour les applications. L'architecture
EMA (Enterprise Management Architecture), que supportent Windows 2000 Advanced
Server et Windows 2000 Datacenter, fournit deux méthodes pour étendre la quantité
de RAM disponible pour les applications : 4 GT (4 GB RAM Tuning) et PAE (Physical
Address Extension). 4 GT ajoute le commutateur /3GB au chemin ARC (Advanced RISC
Computing) dans le fichier boot.ini pour permettre aux applications de gérer jusqu'à
3 Go de RAM. PAE utilise une fenêtre pour mapper des tranches de mémoire physique
à l'espace d'adressage virtuel d'une application et étendre la capacité d'adressage
de la mémoire physique à 8 Go sur Windows 2000 Advanced Server et à 64 Go sur
Windows 2000 Datacenter Server. (Pour en savoir plus sur le support EMA de Datacenter,
voir l'article de Gregg Todd " Windows 2000 DataCenter : Microsoft vise la cours
des grands ").
Les futurs processeurs 64 bits vont étendre considérablement la quantité de mémoire
physique adressable disponible pour les systèmes haut de gamme. Les processeurs
64 bits d'Intel et AMD mettront la barre très haut, atteignant 16 exaoctets (EO),
soit environ 18 milliards de gigaoctets (264 octets) - plus qu'il n'en faut, même
pour les applications les plus massives d'aujourd'hui.
Les processeurs 64 bits ont en fait deux fonctions importantes. Outre la capacité
d'utiliser 64 bits pour définir une adresse en mémoire, ils peuvent manipuler
64 bits de données simultanément. Etant donné que la capacité de manipuler 64
bits de données à la fois dépend plus de la structure des bus que des processeurs,
la tendance vers le traitement 64 bits va de pair avec d'importants progrès en
matière de technologie des bus système.
Bien que partageant clairement un objectif commun, Intel et AMD ont choisi
des chemins très différents pour atteindre leur destination
Les plus consultés sur iTPro.fr
- L’IA dans l’entreprise : questions et pratiques contemporaines
- Être une femme dans la tech en 2025 : comment prendre sa place et évoluer ?
- Les différents types de cyberattaques les plus répandues
- Bilan 2024 de la start-up Nation
- DORA, vecteur d’accélération de la transformation numérique des assureurs
