
L’avenir de la PKI passe par l’approche
« open source »
par René Beretz
Les infrastructures à clé publique (PKI : Public Key Infrastructure) génèrent
un intérêt croissant. Leur succès devrait s'amplifier avec des solutions " open
source " qui en abaisseront le coût.
La PKI (Public Key Infrastructure) est une solution globale de sécurité. Elle
se compose de systèmes de chiffrement symétrique et asymétrique, de certificats
numériques permettant l'authentification des individus et des entités ainsi que
de signatures électroniques qui garantissent l'intégrité des données transmises
et la non-répudiation des messages.
Le chiffrement se fait par une combinaison de clés publiques et privées. Les données
sont chiffrées symétriquement, c'est-à -dire au moyen de clés publiques, librement
diffusées. Le mode asymétrique implique, en plus de la clé publique, une clé privée
connue d'une seule personne ; celle-ci renforce la confidentialité du message
et peut servir à garantir l'identité de l'expéditeur. Ce mode sert, en particulier,
à coder une signature électronique, associée à l'identité de l'expéditeur et au
message transmis. En France, un décret de loi récent autorise l'usage de la signature
électronique pour authentifier des actes officiels.
En France, un décret de loi récent autorise l'usage de la signature électronique
pour authentifier des actes officiels
Alternative aux systèmes de nom et de mot de passe, le certificat se situe au
coeur de la PKI pour authentifier les accès. La spécification RFC 2459 normalise
le certificat au sein de la famille de standards X.509 de l'IETF définissant la
PKI pour Internet. La norme est très ouverte : au-delà des champs obligatoires,
elle permet de tirer parti de la PKI pour les besoins de l'entreprise. Selon la
norme, un certificat contient trois sortes de champs :
· les champs obligatoires figés (le nom et le type de contenu sont précisément
définis) : nom, prénom, adresse électronique
· les champs optionnels dont seul le nom est fixé : pays, adresse, téléphone
· les champs d'extension dont le nom et le contenu sont libres : société, établissement,
département, service, etc.
En pratique, la mise en oeuvre d'une PKI fait intervenir plusieurs acteurs :
· L'autorité de certification (interne ou externe) définit les règles d'attribution
des certificats : elle joue le rôle de tiers de confiance. Cette fonction peut
être assurée en interne par un service indépendant comme l'administrateur de réseau
ou par une société extérieure.
· L'opérateur de certification gère la production des certificats numériques.
C'est souvent une société spécialisée (tierce partie) comme Certplus ou Verisign.
Une même entité joue souvent le rôle d'opérateur de certification et d'autorité
de certification.
· L'autorité d'enregistrement gère les demandes de certificats, vérifie les critères
et demande leur fabrication à l'opérateur ou à l'autorité de certification.
· L'autorité de validation conserve une liste des certificats révoqués afin de
vérifier la validité des certificats.
La PKI prend en charge ces fonctions au moyen de serveurs : serveur de certificats,
serveur d'enregistrement, serveur de révocation. Lorsque la PKI est implantée
en ligne, c'est une chaîne de traitement qui prend en charge l'ensemble des procédures
du début jusqu'à la fin. Le protocole de négociation, qui vérifie l'identité de
toutes les personnes impliquées, se déroule en plusieurs étapes :
1. Une entité fait une demande de certificat.
2. La PKI envoie au demandeur la clef publique codée.
3. L'utilisateur déchiffre le message avec sa clef privée et retourne un accusé
de réception au système pour s'identifier.
4. La PKI enregistre le certificat et en autorise l'utilisation.
Le processus peut fonctionner de plusieurs manières : soit le serveur d'enregistrement
fonctionne automatiquement sans intervention humaine, soit une personne physique
fait fonction d'autorité d'enregistrement sur le site de la PKI. C'est à chaque
société de décider de sa politique dans le domaine. Un certificat est toujours
créé pour une période déterminée, et suit donc un cycle de vie. Ce cycle peut
être géré de manière automatiqu

La sécurité à la Une de l’actualité
par Isabelle Nougier
Créée en juillet 2000, la société SafeStone résulte de la reprise de l'éditeur
britannique de logiciels de sécurité DetectIT, CCT UK Limited par le groupe SoftScreen,
un autre éditeur britannique dans le domaine de la sécurité et de la supervision
des systèmes d'information sur le marché AS/400. SoftScreen étant plutôt orientée
Marketing et Commercial et CCT compétences technologiques, les deux sociétés se
sont trouvé des affinité et se sont réunies sous le nom de SafeStone.
" Nombreux sont ceux qui pensent que les hackers sont les éléments les plus dangereux
pour un système informatique. En réalité elles se trompent. Les problèmes viennent
le plus souvent de l'intérieur de l'entreprise " explique Gabor Weiner, Directeur
EMEA Europe de SafeStone, " et les conséquences de ces erreurs ou de ces problèmes
sont énormes ".
80% des violations graves de sécurité ont leur origine à l'intérieur des
organisations et les firewalls ne protègent en rien contre ces intrusions
En 1998, le CSI/FBI Computer Crime and Security a montré que sur une période de
12 mois aux Etats-Unis, 64% des entreprises avaient subi des violations de sécurité
pour un montant total des dommages estimé à 236 millions de dollars, et que 27%
de ces incidents avaient un coût unitaire supérieur à 500.000 dollars. Les statistiques
montrent également que 80% des violations graves de sécurité ont leur origine
à l'intérieur des organisations et les firewalls ne protègent en rien contre ces
intrusions internes et malencontreuses.
Fournisseur de solutions de sécurité globales pour les entreprises disposant de
systèmes informatiques hétérogènes, les produits proposés par SafeStone se concentrent
sur la gestion des accidents internes. Spécialisée sur AS/400, SafeStone se diversifie
aujourd'hui pour proposer à très court terme des produits multi-plates-formes.
A propos de SafeStone Forte de 50 à 60 personnes en Europe continentale et d'un nombre de développeurs en perpétuelle augmentation, SafeStone compte aujourd'hui 3 divisions, réparties sur les Etats-Unis, la zone EMEA et en Grande Bretagne (qui ne fait curieusement pas partie de EMEA, que l'on appelle "Europe Continentale" chez SafeStone). Elle propose une gamme de logiciels couvrant la plus grande partie des domaines des sécurités e-business complétant les offres d'IBM. Avec le développement du e-business, les sécurités deviennent le cheval de bataille de nombreuses entreprises, et les perspectives d'avenir de SafeStone sont plutôt optimistes : le chiffre d'affaires prévu pour cette année va tourner autour de 3 à 4 millions de dollars (chiffre incluant les chiffres d'affaire de CCT et SoftScreen au premier semestre). L'objectif est de se développer en "Europe Continentale"; à cet effet, une nouvelle agence s'est récemment ouverte en France. Si au départ les produits proposés sont essentiellement basés AS/400, SafeStone se diversifie aujourd'hui et prépare des produits multiplate-formes en s'appuyant sur les produits déjà existants. |
S'agissant de sécurités sur AS/400, il ne faut par exemple pas perdre de vue que tant que les ports de communication ou point de sortie (TCP/IP, FTP, ODBC, DDM…) ne sont pas sécurisés, les utilisateurs de PC ayant accès à un AS/400 ont la possibilité d'exécuter des commandes extrêmement puissantes. Un utilisateur peut, par exemple, avoir accès à une ligne de commande depuis un PC, et même supprimer des fichiers, et ceci même s'il n'a pas accès à la ligne de commande au sein de l'application. Et c'est très simple à faire.
Aujourd'hui, les bases de données AS/400 contiennent toutes les informations de l'entreprise. Le e-business ouvrant cette base de données à tous les protagonistes, il occasionne inévitablement de réels dangers. Les préoccupations majeures des entreprises tournent donc autour des authentifications d'identités, du contrôle strict des autorisations et de l'établissement d'une politique de sécurité.
Le logiciel DetectIt proposé par SafeStone permet, entre autres fonctionnalités, de contrôler et de restreindre les différents types d'activités. Il s'agit d'une solution de sécurité d'exploitation pouvant couvrir un ensemble de systèmes IBM AS/400 interconnectés en réseau. Il assur Lire l'article

L’avenir de SQL Server
par Brian Moran
NDLR
Journaliste et MVP (Most Valuable Professional) SQL Server, Brian Moran s'est
récemment entretenu avec Paul Flessner, Vice-Président SQL Server et Middleware
chez Microsoft, à propos de l'évolution de SQL Server et de son rôle dans les
environnements des services informatiques des entreprises.
Paul Flessner fut l'intervenant clé de la Conférence Expo PASS 2000 en Amérique
du Nord l'année dernière à San Francisco (Pour plus d'informations, consulter
le site Web http://sqlpass.org).
Ce qui suit est un extrait de l'interview, on peut lire l'interview complète sur
www.sqlmag.com, InstantDoc ID 8993.

Tirer toute la puissance de la console d’administration de Windows 2000
2ème Partie
par Kathy Ivens
Dans la première partie de cet article parue le mois dernier, nos avons vu les
bases de la MMC (Microsoft Management Console). Voici les meilleures surprises
que vous réserve la MMC. Il y a trop de fonctions sympathiques dans la MMC pour
toutes les faire tenir dans cet article. J'ai donc sélectionné mes favorites.

Sécurité réseau : NETFILTER prend la relève
par Bruno Rocher
La mise en place de procédures de sécurité concernant les réseaux est devenue
aujourd'hui une priorité. Linux, système d'exploitation intrinsèquement orienté
réseau, propose toute une gamme de logiciels permettant de garantir une sécurité
optimale.
Rappelons que le grand intérêt de Linux, outre la gratuité des logiciels, est
la mise à disposition des sources. Cette accessibilité engendre d'une part une
grande rigueur de programmation et d'autre part un très bon niveau de suivi et
de corrections. Ce dernier aspect est très important en ce qui concerne la sécurité.
Aujourd'hui, les différentes distributions Linux (Caldera, Suse, RedHat, …) sont
construites autour du noyau 2.2. La communauté Linux attend impatiemment la sortie
du nouveau noyau 2.4, qui est annoncée pour "l'automne 2000". Toutes les caractéristiques
et les outils concernant la sécurité ont été réécrits pour le noyau 2.4.
Les deux principes de base en ce qui concerne la sécurité des réseaux sont le
filtrage et le masquage d'adresses. Ces processus étaient pris en charge par le
logiciel IPCHAINS. Avec l'arrivée du noyau 2.4, c'est désormais NETFILTER qui
va gérer ces tâches. Avant de s'intéresser aux différences entre les deux produits,
il convient d'expliquer ou de rappeler quelques notions sur la sécurité, notamment
en ce qui concerne le filtrage et le masquage d'adresses.

Qui visite votre site ?
par Gary Guthrie
L'utilitaire UPDHTTPLOG permet de saisir le nom de domaine des clients qui accèdent à un
serveur Web AS/400.
Dans le domaine du commerce électronique, les informations sur les visites effectuées sur un site Web sont d'une valeur inestimable. Aussi, la plupart des serveurs Web, et notamment les serveurs HTTP sur AS/400 (Internet Connection Server et Internet Connection Secure Server, respectivement en V4R1 et V4R2), permettent d'obtenir des informations sur les visiteurs d'un site Web en offrant la possibilité de consigner sur le serveur des informations concernant les accès des clients. Lorsque la log des accès au serveur est activée, chaque demande d'accès reçue par le serveur permet de capturer des informations utiles. Par exemple, la périodicité des accès et le nombre d'octets transmis peuvent être utilisés pour optimiser les ressources allouées au service des clients. Une autre option consiste par exemple, à utiliser la log pour assurer le suivi des documents auxquels les clients accèdent afin, par exemple, d'identifier les produits qui les intéressent le plus.
Les adresses IP n'aident guère à l'identification d'un client, car elles se ressemblent toutes
L'identité du client est également une information importante qui peut être consignée. Pour chaque requête adressée au serveur, celui-ci reçoit les adresses IP du client demandeur. Toutefois, les adresses IP n'aident guère à l'identification d'un client, car elles se ressemblent toutes. De ce fait, il est préférable de consigner le nom qualifié du domaine du demandeur. Le serveur Web AS/400 offre le choix de consigner les noms DNS (Domain Name System) résolus.
Malheureusement, la résolution des noms de domaines implique une pénalisation considérable des performances, le serveur Web devant faire une recherche inverse auprès d'un serveur DNS. Une recherche inverse implique que le serveur Web contacte le serveur DNS, lequel recherche ensuite dans un tableau de noms une adresse IP correspondante avant de retourner le nom de l'hôte associé au serveur Web. Cela prend du temps ! Pire encore, si un client accédant au site ne possède pas de nom DNS associé à son adresse IP, le serveur Web attendra dans une boucle de temporisation de résolution d'adresse (jusqu'à 30 secondes) pour chaque requête émise par le client. Etant donné que l'accès aux pages Web consiste en des requêtes multiples, cela peut se traduire en délais extrêmement longs et en performances très médiocres pour les clients visitant sur le site. Le nom DNS n'est pas nécessaire pour servir une page Web. Aussi, la question qui se pose est de savoir pourquoi générer des surcoûts de recherche DNS au moment de satisfaire une requête HTTP ? En fait, différer les recherches DNS à un moment ultérieur est une meilleure approche.
C'est pourquoi, j'ai créé la commande UPDHTTPLOG (Update HTTP Log), un utilitaire qui fait une recherche DNS inverse à la demande. Cette commande permet d'une part, de désactiver la fonctionnalité de recherche de demande de connexion DNS et d'autre part, d'exécuter une recherche du nom de l'hôte en batch à la place, au moment de votre choix. UPDHTTPLOG lit le fichier de log système créé par le serveur Web, traduit les adresses IP en noms de domaine et génère un nouveau fichier log contenant les noms traduits. Etudions de plus près les caractéristiques de la commande UPDHTTPLOG.
Lire l'article
Votre AS/400 est-il prêt pour l’an 2000 ?
par Dan Lacine et Jayne Sims
Ayez les toutes
dernières informations sur votre matériel, release d'OS/400, produits
programmes sous licence et applications en consultant ces ressources IBM Y2K en
ligne
A l'heure qu'il est, la préparation à l'an 2000 de votre AS/400 devrait être bien engagée, voire terminée. Vous avez sans aucun doute à cette occasion découvert que de nombreux éléments déterminent si un système est totalement prêt pour le changement de siècle, et il vaut mieux les vérifier (plutôt deux fois qu'une) tous, à l'approche du jour J. Dans cet article, nous passons en revue les dernières informations sur la préparation à l'an 2000 de l'AS/400 et indiquons les ressources IBM disponibles sur le Web, susceptibles de vous aider à déterminer le statut de tous les composants de votre système. Vous saurez ainsi si votre AS/400 est prêt à franchir le siècle.
A la lecture de cet article, vous saurez si votre AS/400 est prêt à franchir le siècle
Lire l'article
Virgin: sur la trace des NS
Par Sabine Terrey
Virgin Megastore s'est lancé dans une gestion centralisée du système d'information
de ses magasins européens, depuis son site de Paris.
Virgin Megastore, maison de disques bien connue créée par Richard Branson dans
les années 70, a ouvert son premier magasin en France en 1988 sur les Champs-Elysées.
Aujourd'hui, avec une activité de distribution débordant largement celle du disque
puisque Virgin Mégastore propose également par exemple des livres ou du matériel
électronique et informatique, le groupe compte 28 magasins en Europe continentale,
répartis dans six pays (Italie, Portugal, Autriche, Belgique, Pays Bas et France).
L'objectif de Virgin : tout magasin se doit avant tout d'être un « lieu de vie
» avec une ambiance bien particulière que les clients aiment retrouver. Le groupe
Virgin s'attaque également à d'autres marchés, aussi divers que l'aviation (BA
AA, no way!), le train, les assurances, « Virgin cola », « Virgin Vie »…toutes
activités qui représentent désormais 200 sociétés de par le monde.
Quant à l'activité des Mégastores, elle est représentée par VEG (Virgin Entertainment
Group).

Rationaliser les processus de Change Management
par Paul Schlieben
Une stratégie de workflow efficace et une communication fluide sont les garants d'un système de Change Management bien intégréLorsqu'un système fonctionne 24 heures sur 24 et 7 jours sur 7, et que l'on veut préserver ses week-ends, il faut mettre l'accent sur la haute disponibilité du matériel et de la base de données. Sans oublier que même le matériel le plus fiable ne peut rien si les modifications logicielles sont mal effectuées. Et la modification des logiciels met en péril la disponibilité. C'est pourquoi, face à une modification logicielle touchant directement des opérations de gestion critiques, il faut disposer d'un excellent système de Change Management.
De même qu'une équipe informatique est plus qu'un simple groupe d'individus, un système de Change Management est plus qu'un ensemble d'utilitaires. L'équipe fonctionnera d'autant plus efficacement et intelligemment que les gens communiqueront mieux entre eux. Cela est aussi valable pour un bon système de Change Management. Il y a une nette différence entre un simple ensemble d'utilitaires et un système de Change Management complet mettant en oeuvre une stratégie de workflow efficace.
Le workflow est essentiel. Entre le moment où une demande arrive et celui où une modification est déployée, il existe des dizaines de points de communication critiques pour attribuer une tâche, résoudre un conflit de développement, demander un test de code, alerter la direction pour qu'elle examine une requête ou approuve une modification, et autres. Dans un Système Informatique, les messages sont comme des synapses se déclenchant dans le cerveau, plus ils se déclenchent de façon fiable, plus le QI informatique est élevé. Voyons quelques exemples de points de communication critiques dans un bon système de Change Management.
Il faut disposer d'un système de suivi efficace

TSAC : le joyau du SP1 pour les services de terminaux
par Sean Daily
Le but ultime des services d'accès distant dans un réseau est de permettre aux
utilisateurs distants d'accéder aux ressources du LAN. Les connexions RAS traditionnelles,
telles que celles qu'assurent Windows 2000 et Windows NT, fonctionnent bien pour
les besoins de connectivité de base des utilisateurs - par exemple les e-mails
ou la navigation sur Internet. Mais des problèmes peuvent survenir lorsque l'on
essaie d'en étendre l'utilisation, pour permettre aux utilisateurs d'accéder à
distance, librement, aux outils bureautiques.

Linux à l’assaut de l’informatique embarquée
par René Beretz
Linux apparaît parfois là où on l'attend le moins, comme dans les systèmes embarqués.
Et d'après les spécialistes, ses perspectives d'évolution sont très importantes
dans ce domaine
Très largement répandus mais invisibles de l'utilisateur, les logiciels embarqués
jouent un rôle fondamental dans de nombreux systèmes. Intégrés depuis longtemps
dans les systèmes spatiaux, les systèmes de contrôle et de navigation aéronautiques,
les processus industriels, ils font désormais leur apparition dans les appareils
de la vie courante : automobiles, téléphones portables, distributeurs de billets,
machines à laver, photocopieurs.
Les systèmes embarqués comportent très souvent des caractéristiques temps réel,
c'est-à -dire une capacité à réagir dans un temps limité, parfois très court, à
certains événements. Cet aspect essentiel détermine l'adéquation du système à
son objectif : faute d'obéir à ces règles, le système est en erreur, ce qui peut
aller jusqu'à mettre en danger des vies humaines. D'autres exigences peuvent se
rajouter, comme la taille réduite de la mémoire et la garantie de maintenance
à long terme des applications et des outils sous-jacents.
Les exécutifs spécialisés propriétaires qui répondent à ces besoins induisent
une dépendance forte
Des éditeurs spécialisés se sont imposés dans ce qui était jusqu'ici une niche,
d'où l'existence d'une pléthore de systèmes d'exploitation temps réel incompatibles
les uns avec les autres. Les exécutifs spécialisés propriétaires qui répondent
à ces besoins induisent une dépendance forte, des coûts de développement et de
maintenance élevés et une spécialisation à outrance des compétences.
Pour leur part, les systèmes d'exploitation généralistes ne répondent pas aux
contraintes des systèmes embarqués et temps réel. Des travaux destinés à les adapter
à ces contraintes spécifiques sont en cours depuis de nombreuses années. C'est
maintenant au tour de Linux d'entrer dans la danse.

L’intégrité des données avec les fonctions de hachage unidirectionnel
par Gene Gaunt
De l'usage des blocs élémentaires de la cryptographie pour se protéger contre
l'altération des données sensibles
Supposons un fichier de données sensibles, que les utilisateurs peuvent visualiser
mais non modifier et que les programmes peuvent ouvrir et lire, mais pas mettre
à jour. Supposons que vous vouliez créer des requêtes SQL et des fichiers logiques
sur ces champs de données sans processus de cryptage de données. Comment les programmes
en lecture seule peuvent-ils détecter facilement si un enregistrement du fichier
a été modifié ? Ne serait-il pas intéressant d'avoir un indicateur d'intégrité
des données (du genre *INxx) que l'on testerait après un accès en RPG par le code
opération CHAIN ?
Supposons qu'un de vos partenaires de commerce électronique demande de vérifier
si vous possédez une copie authentique de l'un de ses enregistrements. Pour des
raisons de sécurité, il ne veut pas que vous lui envoyiez l'enregistrement. Quel
type d' " empreinte digitale " pouvez-vous lui envoyer pour vérifier votre copie
?
Supposons une boutique Web acceptant des commandes par carte de crédit. Une fois
la commande traitée, on transmet en toute sécurité le numéro de la carte de crédit
à la banque pour collecter l'argent, après quoi on n'a plus besoin du numéro.
Toutefois, on peut fort bien être appelé ultérieurement pour vérifier si un numéro
de carte donné a payé pour la commande. Comment le faire sans stocker le numéro
dans une base de données, avec tous les risques en cas de divulgation involontaire
ultérieure ?
Précisément, la fonction de hachage unidirectionnel est un moyen pratique et rapide
d'assurer l'intégrité des données au moment de la lecture de l'enregistrement.
Il suffit d'ajouter au fichier critique une colonne qui contiendra une valeur
de hachage unidirectionnel des autres colonnes de l'enregistrement. On calculera
et écrira cette valeur de hachage dans chaque enregistrement au moment de la création
du fichier. Au moment de la lecture de l'enregistrement, on recalculera cette
valeur et on la comparera à la valeur écrite. En cas de différence, le programme
pourra signaler à l'utilisateur que l'enregistrement a été modifié.
Il existe une autre solution moins séduisante au problème de la vérification des
données. Elle consiste à attacher un trigger ou un récepteur de journal au fichier
critique, puis à bâtir une liste de contrôle sécurisée et inaccessible (par les
utilisateurs ordinaires). Toutefois, comme les journaux et les triggers ne se
déclenchent pas quand les enregistrements sont lus par une application, le timing
de cette technique est discutable. La lourdeur des consultations des listes de
contrôle risque de freiner les performances du système. Il faut aussi songer à
protéger la liste de contrôle (" contrôler le contrôle "). En revanche, les fonctions
de hachage unidirectionnel donnent un accès rapide aux enregistrements avec des
blocs élémentaires de cryptographie. Elles peuvent aussi aider à prouver que l'on
possède (ou que l'on a possédé) une information particulière comme un numéro de
carte de crédit.

Comment venir à bout de l’enfer des DLL
par Darren Mar-Elia
Parmi toutes les technologies de Windows 2000, trois fonctions peuvent s'avérer
particulièrement intéressantes : WFP (Windows File Protection), les composants
SxS (Side-by-Side) et la redirection des DLL. Ces trois fonctions aident les administrateurs
systèmes à résoudre un problème très ennuyeux posé par les DLL, qui empêche deux
ou plusieurs applications partageant des composants de fonctionner indépendamment
l'une de l'autre. Les nouvelles fonctions de Windows 2000 font un grand pas en
avant vers l'élimination de cet obstacle.

Connecter votre petit réseau à l’Internet
par Mark Minasi
Un des principaux problèmes que rencontrent les administrateurs de réseaux est
la connexion des LAN à l'Internet. Ce mois-ci, nous allons donc voir quelles sont
les dernières méthodes pour cela et nous comparerons certaines des nouvelles possibilités
de routage qu'offrent, aux petits groupes, les fonctions ICS (Internet Sharing
Connexion) et NAT (Network Address Translation) de Windows 2000.

Linux, au coeur des outils de base pour Internet
par René Beretz
Les sociétés qui se positionnent sur le secteur de l'Internet font naturellement
appel à Linux, autour duquel l'offre est pléthorique et variée. Et d'une redoutable
efficacité !

L’AS/400 place haut la barre de la Business Intelligence
Avec les améliorations apportées au matériel et au logiciel des versions V4R3 et V4R4, l'AS/400 établit le standard en matière d'entrepôts de données
Si vous avez suivi les annonces AS/400 au cours de l'année écoulée, vous savez qu'IBM souligne les possibilités de la plate-forme comme serveur global de business intelligence (BI) . Grâce à de récentes innovations, l'AS/400 n'a jamais été mieux à même de supporter des applications de BI, depuis les magasins de données (dataires) départementaux jusqu'aux entrepôts de données (datawarehouses) de l'ordre du multitéra-octets, à l'échelle de l'entreprise. Dans cet article, nous nous intéressons aux développements matériels et logiciels des V4R3 et V4R4, qui ont amélioré les possibilités des tous derniers serveurs AS/400 de Rochester en matière de BI.
Lire l'article
Les prototypes RPG IV en 10 points clés
par Bryan Meyers
Utilisez
les prototypes pour passer des paramètres intelligemment

Ils ont osé… et ils ont bien fait
par Dominique Douchet
Si le choix était à refaire 8 ans après, c'est encore à l'AS/400 en mode client/serveur
(choix audacieux pour l'époque) que Messieurs Reitz et Dutsh feraient confiance.
Ce qui pouvait sembler être un pari en 1992 s'est avéré être un choix stratégique
et une réussite pour la caisse Nationale des Entrepreneurs des Travaux publics
(CNETP).
Cet organisme, chargé de gérer les congés payés et le paiement des salariés privés
d'emploi du fait des intempéries dans le secteur des Travaux Publics a une tâche
de grande envergure puisqu'avec 130 employés, il gère 220000 salariés et 5500
entreprises cotisantes. Un système informatique performant est donc un élément
déterminant pour son bon fonctionnement.
Ce système informatique, qui datait des années 70, devenait alors obsolète, et
de moins en moins fiable, d'autant que de nombreux développements périphériques
s'étaient avérés nécessaires au cours des années pour s'adapter aux évolutions
du métier et aux exigences des utilisateurs. D'autre part, les échéances de l'an
2000 et du passage à l'Euro approchaient; il fallait donc repenser le système
d'information.
En 1991, la CNETP décide de la refonte totale du système. Il lui fallait alors
un système pouvant s'adapter très facilement aux diverses et nombreuses évolutions
législatives et professionnelles, un système qui s'adapte aux adhérents (et surtout
pas le contraire), et il lui fallait également aller plus loin dans les automatismes,
en privilégiant un faible coût de fonctionnement, même si l'investissement de
départ s'avérait un peu élevé, le système étant destiné à être exploité longtemps
(au final, le montant global du projet évoqué ici se situera tout de même aux
alentours de 60 à 70MF).
La dissociation de la conception et de la réalisation paraît indispensable
pour conserver une plus grande indépendance
Monsieur Reitz, Directeur Informatique de la CNETP

Les meilleurs utilitaires du nouveau Kit de ressources
par Michael Otey
Les kits de ressources de Microsoft ont toujours été des mines d'utilitaires d'administration. Le nouveau Kit de ressources de Windows 2000 Professionnel offre la plupart des outils du Kit de ressources de Windows NT 4.0 Workstation, ainsi que des dizaines de nouveaux utilitaires.

Compaq et DC : une histoire d’amour
par Benoît Herr
On le sait, dans les offres tournant autour de Windows 2000 DataCenter (DC), service,
logiciel et matériel sont intimement liés, ce triptyque se mettant au service
de la haute disponibilité. Chez Compaq, l'un des acteurs majeurs de cette nouvelle
offre, SYSTEMS Journal a rencontré Robert Vassoyan et Ilham Ouzzani, pour faire
un point sur la stratégie du constructeur en la matière.
Le programme Windows 2000 Datacenter de Compaq, tout comme les programmes équivalents
de ses concurrents, est une solution de haute disponibilité complète, englobant
le ou les serveurs, le système d'exploitation Windows 2000 Datacenter de Microsoft,
les solutions de stockage, de clustering et d'administration, ainsi que les services
d'accompagnement, et clés en main. Ce type de solution n'est commercialisé que
par des constructeurs agréés par Microsoft, c'est-à -dire qui ont passé avec succès
les tests HCT. Au moment où nous mettions sous presse, ils étaient au nombre de
deux : Unisys et Compaq.
D'autres constructeurs sont cependant en cours d'agrément, et devraient arriver
sur le marché courant 2001. Certains seront peut-être déjà dans le circuit au
moment où vous lirez ces lignes. Il s'agit de Hewlett-Packard et IBM, talonnés
par Fujitsu-Siemens, Stratus, et Dell, et peut-être aussi par Bull, ICL, NEC et
Amdahl.
La cible de ce nouvel OS, à travers lequel Microsoft espère gagner enfin la crédibilité
qui lui a jusqu'ici été refusée depuis l'annonce initiale de Windows NT, et des
programmes DataCenter des différents constructeurs agrées est très clairement
les entreprises ayant besoin de haute disponibilité, et qui ne peuvent pas se
permettre d'assumer les coûts d'une interruption de service.
Autrement dit, un marché jusqu'ici réservé aux gros Unix, mainframes, et autres
systèmes "propriétaires", comme l'AS/400. Microsoft avoue d'ailleurs humblement
son absence de ce marché, puisqu'elle représente selon ses propres dires 1,3%
du nombre des serveurs d'entreprise de plus de 100.000$. Lorsqu'on traduit cette
présence en chiffre d'affaires, le ratio tombe carrément à 0,5%.
Inversement, ces chiffres signent également le formidable potentiel de développement
pour la firme de Redmond sur ce marché. A condition toutefois de se montrer à
la hauteur des attentes des entreprises, qui se proposent là de lui confier leurs
applications vraiment critiques. Mais à en juger par la façon d'appréhender le
problème de Microsoft, tout laisse à penser que le succès devrait être au rendez-vous.
Au delà de sa position de précurseur, aux côtés d'Unisys, Compaq, qui équipe l'ensemble
des filiales Microsoft à travers le monde, occupe une place un peu privilégiée
dans son partenariat avec Microsoft. Nous avons demandé à Robert Vassoyan, Directeur
Industry Standard Server Division chez Compaq France pour la partie offre matérielle
et logicielle, et à Ilham Ouzzani, Chef de Produit Business Critical Marketing
& Développement des Ventes pour la partie services de nous en dire plus.
La cible de ce nouvel OS et des programmes DataCenter des différents constructeurs
agrées est très clairement les entreprises qui ne peuvent pas se permettre d'assumer
les coûts d'une interruption de service
Les plus consultés sur iTPro.fr
- 2025, un « âge de raison » pour l’écosystème de la technologie ?
- 59 % des entreprises françaises victimes de ransomwares ont stoppé leurs opérations !
- KeeeX accélère son développement en Europe en 2025 !
- Analysez avec AI Content Understanding !
- Cloud et gouvernance : une nécessité pour garantir efficacité et maîtrise des coûts
