
Les 10 meilleurs outils de sécurité du Kit de ressources de Windows 2000 Server
par Randy Franklin Smith
Lorsque vous découvrirez le Kit de ressources de Windows 2000 Server, vous y trouverez
le supplément de documentation et d'utilitaires qui font la richesse d'un kit
de ressources Microsoft. Pourtant celui-ci est particulièrement précieux pour
les administrateurs qui attachent beaucoup d'importance à la sécurité.
Cet article décrit 10 bonnes raisons liées à la sécurité pour lesquelles le kit
vaut bien le prix qu'il coûte. Nous en profiterons pour souligner les bons points
et les inconvénients à connaître. (Attention de ne pas confondre le kit de ressources
Windows 2000 Server avec celui de Windows 2000 Professionnel, qui n'est qu'un
sous-ensemble du premier).

Du nouveau pour les sécurités en V4R5
par Carol Woodbury
La V4R5 apporte de nombreuses améliorations visant à améliorer de façon conséquente
les sécurités en proposant des points d'exit au niveau des commandes, une compatibilité
Kerberos et le coprocesseur cryptographique 4758
Même si, à première vue, la V4R5 ne semble pas comporter d'importantes améliorations
en matière de sécurité, en y regardant de plus près, on change d'avis. En effet,
cette version propose davantage de contrôles sur les actions des utilisateurs
grâce à des points d'exit au niveau des commandes, à l'accès aux services d'authentification
de réseau (Kerberos, par exemple) et à la manipulation de threads permettant aux
utilisateurs de se contenter du niveau de sécurité minimum nécessaire pour une
tâche donnée. Ajoutons à cela une configuration TLS (Transport Layer Security)
facile, la recherche de virus dans le courrier électronique pour SMTP (Simple
Mail Transfer Protocol) et la cryptographie assistée par le hardware. Nous allons
approfondir toutes ces fonctionnalités, qui accroissent la sécurité de la machine.
En utilisant des points d'exit, on peut écrire sa propre version de commandes
OS/400

MandrakeSoft : la magie de Linux
par Isabelle Nougier <br />Le système d'exploitation Linux est devenu en quelques années un acteur majeur sur le marché des serveurs. Il se développe même beaucoup plus vite que les prévisions des spécialistes. En effet les analystes avaient prévu une place de numéro 2 derrière Windows NT en 2002 et c'est arrivé dès 1999.
Lire l'article
La sécurité de Windows 2000 et d’Exchange 2000
par Jan De Clercq
Du fait de son étroite intégration avec Active Directory (AD) de Windows 2000,
Exchange 2000 Server profite non seulement des fonctions de sécurité de ce dernier,
mais bénéficie aussi d'autres améliorations de la sécurité Windows 2000, notamment
en matière d'authentification, de contrôle d'accès et d'audit.

La récupération d’erreurs RPG
par Julian Monypenny
Les gestionnaires de conditions peuvent piéger les bogues qui se glissent dans les programmes malgré un coding défensif

Domestiquer le
par Daniel Magid
Stratégies pour gérer un projet de développement d'application Web sur AS/400
Tout le monde veut aller sur le Web. Les sites AS/400 comme les autres. Malheureusement,
les utilisateurs AS/400 de longue date sont souvent mal à l'aise avec les projets
Web, parce que ce type de développement doit être géré différemment de celui des
applications AS/400 traditionnelles. Apprendre les différences entre deux environnements
de développement (AS/400 classique et Web) et les techniques de management du
développement sur le Web, comme les systèmes SCM (Software Configuration Management),
peut aider les développeurs AS/400 à s'adapter aux nouvelles réalités du développement
d'applications destinées au " Wild, Wild Web ".
Les développeurs Web se préoccupent davantage de la vitesse de développement et
de la technologie dernier cri que de la fiabilité et de la sécurité.

Sept éléments à connaître sur l’écriture de programmes RPG modulaires
par Bryan Meyers
Utilisez au mieux les techniques ILE pour écrire du RPG performant et facile à gérer
La conversion des programmes RPG existants à la syntaxe RPG IV n'est que la première phase du remaniement des applications nécessaires pour exploiter ILE (Integrated Language Environment). Il faut aussi concevoir et construire les applications au moyen de techniques et outils de modularisation ILE. Des modules contenant une ou plusieurs procédures présentent de nombreux avantages : meilleure productivité, code plus fiable, maintenance plus facile et, parfois, applications plus performantes que le modèle monolithique traditionnel. Je propose ici quelques pistes sur la manière d'examiner les applications existantes et de repenser les techniques de développement pour écrire un code RPG modulaire.
Des modules contenant une ou plusieurs procédures présentent de nombreux avantages
Lire l'article
Consolidation de serveurs: pour quoi faire ?
par Sharon Hoffman
Tirez parti de la technologie AS/400 pour réduire les coûts induits d'administration
des serveurs et améliorez par la même occasion l'efficacité de la gestion de vos
systèmes.
La consolidation de serveurs englobe toutes les stratégies et technologies capables
de réduire le nombre ou la répartition géographique des serveurs que possède et
gère une entreprise. Lorsqu'on minimise le nombre de serveurs et les connexions
entre eux, les systèmes d'information fonctionnent de façon plus limpide.
Bien que le principal intérêt de la consolidation de serveurs soit de simplifier
l'administration des systèmes, cette démarche peut également induire d'autres
avantages allant de la réduction des coûts salariaux associés au personnel informatique
à une amélioration de la disponibilité des systèmes.
Bien que le principal intérêt de la consolidation de serveurs soit la
simplification de l'administration, elle peut aussi induire d'autres avantage.
La consolidation des serveurs est un sujet d'actualité au sein de l'ensemble
de la communauté informatique. Une rapide recherche sur Internet indique qu'IBM,
Hewlett-Packard, Sun et Unisys plaident tous en sa faveur. Au départ, ces constructeurs
utilisent tous le même raisonnement de base pour promouvoir leurs solutions de
consolidation, à savoir : la consolidation des serveurs contribue à réduire le
coût de revient global des systèmes.
L'AS/400 est une cible intéressante pour la consolidation des serveurs parce que
ses points forts classiques, notamment un potentiel d'évolutivité et une fiabilité
très élevés, sont essentiels pour la réussite de tout projet de consolidation
de serveurs. Les fonctions d'administration système intégrées à l'AS/400 contribuent
également à faire de cette plate-forme un concurrent efficace sur le marché de
la consolidation des serveurs. Ces atouts, qui ont fait leur preuve depuis longtemps,
sont désormais secondés par plusieurs nouvelles technologies AS/400, notamment
le partitionnement logique, le clustering, le serveur NetFinity intégré, l'AS/400
NetServer et Domino for AS/400. Ces technologies améliorent d'autant le positionnement
de l'AS/400 dans l'arène de la consolidation des serveurs.
Faut-il se lancer dans cette voie ? En fait, la réponse à cette question dépend
d'une corrélation complexe entre plusieurs facteurs dont les coûts et la fiabilité
des communications, les prix des licences d'utilisation des logiciels, les possibilités
d'évolution du matériel et l'attitude des utilisateurs.

TSAC : le joyau du SP1 pour les services de terminaux
par Sean Daily
Le but ultime des services d'accès distant dans un réseau est de permettre aux
utilisateurs distants d'accéder aux ressources du LAN. Les connexions RAS traditionnelles,
telles que celles qu'assurent Windows 2000 et Windows NT, fonctionnent bien pour
les besoins de connectivité de base des utilisateurs - par exemple les e-mails
ou la navigation sur Internet. Mais des problèmes peuvent survenir lorsque l'on
essaie d'en étendre l'utilisation, pour permettre aux utilisateurs d'accéder à
distance, librement, aux outils bureautiques.

Intel, AMD et les processeurs 64 bit
par Michael Otey
Prolongeant leur rivalité dans le domaine des puces 32 bit à la prochaine génération
informatique, Intel et AMD prévoient de sortir de nouveaux processeurs 64 bits
compatibles x86 en 2001. Mais les deux grands rivaux ont adopté des voies différentes
pour leurs prochaines générations de processeurs.
Tout comme le bond en avant de puissance obtenu lorsque la plate-forme PC a évolué
pour passer du processeur 286 à 16 bits au 386 à 32 bits, le saut au 64 bits promet
de faire grimper la technologie PC vers de nouveaux sommets dans l'entreprise.
Certes les processeurs 64 bits ne feront pas se calculer plus vite les tableaux
Excel, ni tourner plus vite la plupart des autres applications. Mais les nouveaux
processeurs répondront à l'éternel besoin d'augmentation de la puissance du processeur
qu'exprime l'informatique haut de gamme. Ce sont les stations graphiques haut
de gamme et les grands systèmes de bases de données, tels que Microsoft SQL Server
et Oracle, qui bénéficieront le plus directement des nouveaux processeurs. Les
sociétés .com (prononcer " dot com ") et le nombre croissant d'applications d'aide
à la décision et de data warehouse sont généralement les forces motrices à l'origine
de la croissance massive des bases de données. Ces applications tireront moins
parti des augmentations de vitesse brute des processeurs, que d'une plus grande
capacité d'adressage de la mémoire. Les applications de bases de données en particulier
sont terriblement gourmandes en RAM. Elles sont d'autant plus performantes qu'elles
ont de la mémoire.
L'actuelle génération de processeurs 32 bits peut traiter en natif jusqu'à 4 Go
(232 octets) de données. Sur ces 4 Go adressables, Windows 2000 Server réserve
2 Go de stockage pour son propre usage et en laisse 2 pour les applications. L'architecture
EMA (Enterprise Management Architecture), que supportent Windows 2000 Advanced
Server et Windows 2000 Datacenter, fournit deux méthodes pour étendre la quantité
de RAM disponible pour les applications : 4 GT (4 GB RAM Tuning) et PAE (Physical
Address Extension). 4 GT ajoute le commutateur /3GB au chemin ARC (Advanced RISC
Computing) dans le fichier boot.ini pour permettre aux applications de gérer jusqu'à
3 Go de RAM. PAE utilise une fenêtre pour mapper des tranches de mémoire physique
à l'espace d'adressage virtuel d'une application et étendre la capacité d'adressage
de la mémoire physique à 8 Go sur Windows 2000 Advanced Server et à 64 Go sur
Windows 2000 Datacenter Server. (Pour en savoir plus sur le support EMA de Datacenter,
voir l'article de Gregg Todd " Windows 2000 DataCenter : Microsoft vise la cours
des grands ").
Les futurs processeurs 64 bits vont étendre considérablement la quantité de mémoire
physique adressable disponible pour les systèmes haut de gamme. Les processeurs
64 bits d'Intel et AMD mettront la barre très haut, atteignant 16 exaoctets (EO),
soit environ 18 milliards de gigaoctets (264 octets) - plus qu'il n'en faut, même
pour les applications les plus massives d'aujourd'hui.
Les processeurs 64 bits ont en fait deux fonctions importantes. Outre la capacité
d'utiliser 64 bits pour définir une adresse en mémoire, ils peuvent manipuler
64 bits de données simultanément. Etant donné que la capacité de manipuler 64
bits de données à la fois dépend plus de la structure des bus que des processeurs,
la tendance vers le traitement 64 bits va de pair avec d'importants progrès en
matière de technologie des bus système.
Bien que partageant clairement un objectif commun, Intel et AMD ont choisi
des chemins très différents pour atteindre leur destination

Etablir des règles : le secret d’une parfaite intégrité
par Carol Woodbury
S'assurer l'intégrité de ses collaborateurs et fournisseurs à travers une politique
de sécurités d'entreprise claire
Avez-vous déjà joué à un jeu de cartes sans en connaître toutes les règles ? Le
jeu commence, et soudain un joueur avance une carte qu'un autre considère comme
interdite. Il s'ensuit une discussion houleuse pour déterminer celui qui a raison.
Le jeu se termine souvent prématurément, et personne ne s'est amusé. Pour ma part,
je préfère jouer à un jeu de cartes dont tous les joueurs connaissent les règles.
En sachant à quoi s'attendre, on évite les discussions, et tout un chacun a les
éléments pour gagner.
Gérer une entreprise sans politique de sécurité revient à jouer à un jeu de cartes
dont personne ne connaîtrait les règles. Tout se passe peut-être bien au début,
mais qu'advient-t-il si par exemple l'administrateur Web autorise des téléchargements
FTP dans les deux sens, vers et à partir du serveur Web ? Le responsable de la
sécurité réprimandera l'administrateur Web. Sans une réelle politique de sécurité,
rien ne permet de déterminer si les règles de la société permettent de faire des
téléchargements vers le serveur Web. La querelle éclate, les esprits s'échauffent,
l'administrateur Web estime que c'est à lui d'autoriser les téléchargements vers
le serveur Web. L'administrateur de sécurité pense au contraire que c'est de son
ressort. Qui a raison ?
Une politique de sécurité est un document vital pour l'entreprise
Une politique de sécurité est un document vital pour l'entreprise. Il liste les
règles et procédures de mise en oeuvre des sécurités. La conception de cette politique
de sécurité d'entreprise est un acte de gestion primordial, tout aussi important
que la politique salariale. Une fois la politique mise en place, il est possible
d'analyser une proposition de nouveaux procédés ou méthodes, et de voir si elle
s'inscrit dans les règles. Une politique de sécurité peut ainsi régler les différends
et éviter des luttes de pouvoir.
La politique de sécurité présente un autre avantage : elle aide à conserver la
" mémoire de l'entreprise ". La rotation du personnel peut faire des ravages dans
un service informatique si personne n'a répertorié les politiques et procédures
en vigueur. Enfin, une politique de sécurité fournira une documentation officielle
s'il fallait un jour avoir recours à la justice pour non-respect des règles.
On peut rassembler toutes les politiques de sécurité dans un même document ou
bien créer un document couvrant les politiques de sécurité générales et lui adjoindre
des annexes décrivant les règles propres à chaque système d'exploitation comme
l'OS/400 et AIX.
Il n'existe pas de politique de sécurité unique convenant à toutes les
entreprises

De gré ou de force, les constructeurs adoptent une stratégie Linux
par René Beretz
A l'heure de l'adoption de Linux en entreprise, la stratégie des constructeurs
informatiques évolue considérablement.
La stratégie des constructeurs informatiques envers les systèmes d'exploitation
a changé. Les systèmes propriétaires n'ont plus le vent en poupe et la plupart
des sociétés vantent les standards. Mais du discours à la réalité, il reste du
chemin à parcourir. Ne serait-ce que dans le monde Unix, il reste des différences
bien réelles et une concurrence effective entre AIX d'IBM, HP-UX de Hewlett-Packard
ou Solaris de Sun. Les constructeurs ont cependant sauté sans trop d'états d'âme
sur la vague Linux qui a rattrapé également les groupes de travail qui se préoccupent
de convergence d'Unix. Il est fort probable que l'avenir des différents Unix va
donc dépendre de cet outsider.
De fait, poussés par l'engouement des développeurs, les entreprises commencent
à adopter Linux et il devient donc essentiel pour les constructeurs d'être présents
sur ce créneau. En outre, il leur offre l'opportunité de se repositionner sur
le marché de l'éducation et sur certains marchés étrangers.
Les constructeurs ont cependant sauté sans trop d'états d'âme sur la vague
Linux
L'attitude des constructeurs oscille entre deux extrêmes : certains ont élaboré
une vraie stratégie Linux : ils ont adopté une attitude dynamique qui devance
le marché : c'est le cas, en particulier, d'IBM, de Hewlett-Packard et de Silicon
Graphics.
D'autres sociétés se contentent de proposer des solutions Linux pour répondre
aux attentes de leurs clients : c'est le cas de Compaq ou de Dell. Entre les deux,
Sun accompagne le mouvement tout en protégeant ses acquis.

Mettre en place des stratégies d’accès distant
par Douglas Toombs
Il y a 5 ou 6 ans, deux grands acteurs s'affrontaient autour d'une proie alléchante,
baptisée « part de marché ». Celle qui remporterait la plus grosse part serait
adorée par les richissimes habitants consensuels d'un pays mystique répondant
au nom implacable de Wall Street. A l'époque cette part était entre les griffes
de Novell et Microsoft la convoitait.
Ceux de nos lecteurs qui fréquentent l'univers de l'informatique depuis suffisamment
longtemps pour se rappeler les premiers pas de Windows NT, savent que si Microsoft
a pu glisser un pied dans la porte (y compris de certains comptes Novell purs
et durs), c'est grâce à l'ajout à NT de services inexistants sur les autres plates-formes.
A l'époque, un de ces cadeaux gratuits les plus connus fut le service d'accès
à distance RAS. Ses concurrents les plus acharnés étaient les périphériques matériels
propriétaires et Novell NetWare Connect, mais leurs coûts de licences par port
étaient très élevés.
Windows NT s'est lentement infiltré dans les organisations en introduisant l'un
après l'autre des services gratuits répondant à des besoins spécifiques des consommateurs.
Malheureusement, bon nombre de ces " plus " n'ont pas atteint la même maturité
que Windows NT au fil des ans. Malgré quelques améliorations à chaque révision
du système d'exploitation, RAS s'est avéré insuffisant dans certains domaines
importants pour entreprises, en particulier pour ce qui est de gérer quel utilisateur
peut se connecter à un serveur RAS et à quel moment. Le RAS de NT n'est pas étranger
à la sécurité des domaines et aux stratégies de comptes, mais les administrateurs
veulent souvent pouvoir contrôler davantage les utilisateurs appelant de l'extérieur.
Pour répondre à leurs attentes, Microsoft a ajouté à Windows 2000 Server des stratégies
d'accès à distance que RAS peut appliquer aux connexions entrantes.

Initiation aux concepts de l’OO (Orienté Objet)
par Sharon L. Hoffman
En apprenant les concepts de base de l'orienté objet, on peut peser le pour et le contre de cette technologieLa technologie OO (Orientée Objet) a la réputation bien méritée d'être gourmande en temps et en argent. Pourtant, ses défenseurs affirment qu'elle permet de freiner la hausse des coûts de maintenance applicative. On comprend donc parfaitement que beaucoup d'utilisateurs hésitent à investir dans cette technologie sans en avoir au préalable bien cerné les avantages et les risques potentiels.
Il ne saurait être question d'expliquer la programmation OO dans un seul article. Cependant, en s'écartant quelques instants des détails de mise en oeuvre de Java et des complications du langage UML (Unified Modeling Language), on voit qu'il y a quelques concepts OO de base permettant de comprendre l'idée fondamentale et d'évaluer l'investissement nécessaire pour récolter les fruits que promet cette méthode de programmation.

Exceptionnels ! Les Gestionnaires d’exceptions du RPG !
par Gary Guthrie
Passez en revue
les possibilités de traitement des exceptions en RPG. Et voyez comment les
gestionnaires de conditions et d'annulation de ILE pallient certaines des
limitations du RPG/400Dring . . . dring .
. . .
"Informatique. Francis à l'appareil."
"Salut, Francis. C'est André du Service Financier. Un message d'erreur est apparu sur mon terminal il y a quelques instants, et maintenant plus rien ne fonctionne correctement !"
D'une voix calme, Francis demande, "Quel était ce message ?"
"Quelque chose à propos d'un fichier ayant quelque chose, ou quelque chose de ce genre, je pense" répond André avec confiance.
"Pas de problème, je m'en occupe" répond Francis. Puis elle raccroche le téléphone et murmure "Bien, bien".
Vous avez sûrement déjà entendu çà , n'est-ce pas ? Heure après heure et franc après franc, les ressources de l'informatique s'amenuisent dès lors que les programmeurs consacrent un temps précieux aux réparations, après le crash d'une application. Or, on peut éviter les coûts et les migraines entraînés par les problèmes applicatifs, en plaçant le traitement des exceptions en tête de la liste des considérations en matière de conception d'applications.
Il existe de nombreux types d'exceptions et leurs techniques de traitement diffèrent en fonction de leur type, du langage utilisé, et du l'environnement modèle de programme (OPM et EPM vs ILE). Je classerai donc les exceptions en trois groupes distincts :
-
Exceptions concernant les fichiers. Il s'agit d'erreurs, comme les I/O sur des fichiers non encore ouverts, des types d'enregistrement indéfinis, des erreurs de programmes triggers et des erreurs d'unités.
-
Exceptions concernant les programmes applicatifs. Ce sont des exceptions comme des erreurs d'index de tableaux invalides, les divisions par zéro et les erreurs lors de l'appel de sous-programmes. La liste des erreurs de programmes possibles est énorme.
-
Exceptions associées au système. Il s'agit d'événements comme des défaillances de lignes de communications, des programmes annulés par les utilisateurs et une défaillance du code du système d'exploitation.
Le plus souvent, des techniques de coding appropriées empêchent ces exceptions de provoquer des fins anormales. Les exceptions associées au système sont les plus délicates, parce qu'on les maîtrise parfois fort peu au niveau applicatif. Il est ainsi impossible d'écrire un code suffisamment parfait pour qu'il évite toute erreur du système d'exploitation.
Quant aux langages évolués (HLL), chacun d'entre eux possède ses propres mécanismes de traitement des erreurs. Le CL par exemple, utilise abondamment la commande MONMSG (Monitor Message) pour piéger les exceptions. Les gestionnaires d'exceptions du RPG comportent des indicateurs d'erreur ou l'extension E sur certai
Lire l'article
Accéder aux membres de fichiers
par Jef Sutherland
Comment gérer les membres de fichiers, et quelques astuces de programmation CL
pour générer un nom de membre unique
Dans un récent article, nous avons vu les chemins d'accès indexés pour fichiers
physiques et logiques, et comment lire des enregistrements à partir d'un fichier
avec clé. Aujourd'hui, nous allons examiner un autre aspect des fichiers AS/400
: les membres de fichiers. Nous allons aussi évoquer quelques astuces de programmation
CL pour générer un nom de membre unique.

XML: langage d’avenir du commerce électronique
XML fait actuellement son apparition dans de nombreux projets de commerce électronique
XML (Extensible Markup Language) jouera probablement un rôle primordial dans le
développement du commerce électronique. Sa capacité à décrire les données dans
un format ouvert standard aidera les consommateurs à rechercher des informations
produits sur le Web et simplifiera les échanges de données interentreprises par
Internet. A n'en pas douter, XML transformera radicalement la manière d'acheter
des consommateurs et, plus particulièrement pour les entreprises, celle d'acheter
et de vendre des biens.
Dans cet article, nous allons examiner l'impact de XML sur le e-commerce.
Pourquoi suscite-t-il autant d'intérêt ?
Comment s'assurer de participer au devenir de XML et du commerce électronique
?
Les entreprises qui sont actuellement en train de mettre sur pied des transactions
HTML devraient commencer sans tarder à envisager XML.
A n'en pas douter, XML transformera radicalement la manière d'acheter
des consommateurs

Compaq et DC : une histoire d’amour
par Benoît Herr
On le sait, dans les offres tournant autour de Windows 2000 DataCenter (DC), service,
logiciel et matériel sont intimement liés, ce triptyque se mettant au service
de la haute disponibilité. Chez Compaq, l'un des acteurs majeurs de cette nouvelle
offre, SYSTEMS Journal a rencontré Robert Vassoyan et Ilham Ouzzani, pour faire
un point sur la stratégie du constructeur en la matière.
Le programme Windows 2000 Datacenter de Compaq, tout comme les programmes équivalents
de ses concurrents, est une solution de haute disponibilité complète, englobant
le ou les serveurs, le système d'exploitation Windows 2000 Datacenter de Microsoft,
les solutions de stockage, de clustering et d'administration, ainsi que les services
d'accompagnement, et clés en main. Ce type de solution n'est commercialisé que
par des constructeurs agréés par Microsoft, c'est-à -dire qui ont passé avec succès
les tests HCT. Au moment où nous mettions sous presse, ils étaient au nombre de
deux : Unisys et Compaq.
D'autres constructeurs sont cependant en cours d'agrément, et devraient arriver
sur le marché courant 2001. Certains seront peut-être déjà dans le circuit au
moment où vous lirez ces lignes. Il s'agit de Hewlett-Packard et IBM, talonnés
par Fujitsu-Siemens, Stratus, et Dell, et peut-être aussi par Bull, ICL, NEC et
Amdahl.
La cible de ce nouvel OS, à travers lequel Microsoft espère gagner enfin la crédibilité
qui lui a jusqu'ici été refusée depuis l'annonce initiale de Windows NT, et des
programmes DataCenter des différents constructeurs agrées est très clairement
les entreprises ayant besoin de haute disponibilité, et qui ne peuvent pas se
permettre d'assumer les coûts d'une interruption de service.
Autrement dit, un marché jusqu'ici réservé aux gros Unix, mainframes, et autres
systèmes "propriétaires", comme l'AS/400. Microsoft avoue d'ailleurs humblement
son absence de ce marché, puisqu'elle représente selon ses propres dires 1,3%
du nombre des serveurs d'entreprise de plus de 100.000$. Lorsqu'on traduit cette
présence en chiffre d'affaires, le ratio tombe carrément à 0,5%.
Inversement, ces chiffres signent également le formidable potentiel de développement
pour la firme de Redmond sur ce marché. A condition toutefois de se montrer à
la hauteur des attentes des entreprises, qui se proposent là de lui confier leurs
applications vraiment critiques. Mais à en juger par la façon d'appréhender le
problème de Microsoft, tout laisse à penser que le succès devrait être au rendez-vous.
Au delà de sa position de précurseur, aux côtés d'Unisys, Compaq, qui équipe l'ensemble
des filiales Microsoft à travers le monde, occupe une place un peu privilégiée
dans son partenariat avec Microsoft. Nous avons demandé à Robert Vassoyan, Directeur
Industry Standard Server Division chez Compaq France pour la partie offre matérielle
et logicielle, et à Ilham Ouzzani, Chef de Produit Business Critical Marketing
& Développement des Ventes pour la partie services de nous en dire plus.
La cible de ce nouvel OS et des programmes DataCenter des différents constructeurs
agrées est très clairement les entreprises qui ne peuvent pas se permettre d'assumer
les coûts d'une interruption de service

Les Bugbusters de Rochester
par Joanna Moore
A Rochester, une armée de clients en bêta-test traque les imperfections dans le
nouveau matériel et logiciel avant que l'utilisateur final ne les découvre.

Protocoles de sécurité : un état des lieux
par Mel Beckman
Sécurisez vos transactions électroniques en suivant de près l'évolution des protocoles
de sécurité du commerce électronique
Lorsque le protocole SSL (Secure Sockets Layer) est arrivé sur le marché il y
a 6 ans, les experts y ont vu la solution au problème de sécurité du commerce
électronique. Et il est vrai que SSL a beaucoup contribué à rassurer les internautes
utilisant leurs numéros de cartes de crédit pour les achats en ligne, faisant
ainsi exploser les ventes grand public sur le Web. SSL remplit bien sa fonction
de cryptage des données circulant entre l'acheteur et le vendeur, pour déjouer
l'interception par les voleurs des informations contenues sur les cartes de crédit.
Si la sécurité du commerce électronique se limitait à cela, SSL aurait donc résolu
la totalité des problèmes. Mais si la protection des numéros de cartes de crédit
et d'autres informations sensibles dans les transactions HTTP est le problème
le plus visible, ce n'est que le sommet de l'iceberg. Toutes les composantes d'une
transaction de paiement électronique ne passent pas par HTTP. Le vendeur peut
utiliser d'autres protocoles (courrier électronique, FTP (File Transfer Protocol),
LDAP (Lightweight Directory Access Protocol) par exemple) comme moyen de règlement
et pour s'assurer que l'argent aboutit bien dans son compte en banque. Une fois
le numéro de carte de crédit reçu par le vendeur, il faut valider le numéro, faire
approuver l'achat par l'organisme émetteur de la carte, et débiter l'organisme
financier de l'acheteur (figure 1).
L'ensemble du processus de transaction n'a pas de protection standard. Pis encore,
une faille du dispositif de sécurité peut intervenir dans l'une des étapes suivant
la commande HTTP sans que l'acheteur n'en ait connaissance. Les acheteurs en ligne
se croient donc plus en sécurité qu'ils ne le sont réellement.
Heureusement, les standards des protocoles Internet sont en train de changer pour
combler ces lacunes en matière de sécurité. Malheureusement, ils ne changent pas
assez vite et aucun standard de sécurité à lui seul ne répond aujourd'hui à tous
les besoins. SSL est en train de devenir un transport multiprotocoles et a été
rebaptisé TLS (Transport Layer Security) mais son adaptation au cryptage autre
que HTTP pose des problèmes. L'autre principal protocole de sécurité, SET (Secure
Electronic Transactions), est très efficace mais tellement lourd à mettre en oeuvre
que peu d'entreprises l'utilisent.
Pour arriver à une bonne sécurité des transactions, il est important de bien comprendre
les avantages et les limites de chaque protocole. De plus, une petite connaissance
de l'historique de chaque protocole donne un peu plus d'éclairage et peut aider
à choisir le cryptage le mieux adapté au commerce électronique. Enfin, il est
bon de savoir ce que l'AS/400 propose dans ce domaine.
Les plus consultés sur iTPro.fr
- L’IA dans l’entreprise : questions et pratiques contemporaines
- Être une femme dans la tech en 2025 : comment prendre sa place et évoluer ?
- Les différents types de cyberattaques les plus répandues
- Bilan 2024 de la start-up Nation
- DORA, vecteur d’accélération de la transformation numérique des assureurs
