> Tech
Les 10 meilleurs outils de sécurité du Kit de ressources de Windows 2000 Server

Les 10 meilleurs outils de sécurité du Kit de ressources de Windows 2000 Server

par Randy Franklin Smith
Lorsque vous découvrirez le Kit de ressources de Windows 2000 Server, vous y trouverez le supplément de documentation et d'utilitaires qui font la richesse d'un kit de ressources Microsoft. Pourtant celui-ci est particulièrement précieux pour les administrateurs qui attachent beaucoup d'importance à  la sécurité. Cet article décrit 10 bonnes raisons liées à  la sécurité pour lesquelles le kit vaut bien le prix qu'il coûte. Nous en profiterons pour souligner les bons points et les inconvénients à  connaître. (Attention de ne pas confondre le kit de ressources Windows 2000 Server avec celui de Windows 2000 Professionnel, qui n'est qu'un sous-ensemble du premier).

Lire l'article
Du nouveau pour les sécurités en V4R5

Du nouveau pour les sécurités en V4R5

par Carol Woodbury
La V4R5 apporte de nombreuses améliorations visant à  améliorer de façon conséquente les sécurités en proposant des points d'exit au niveau des commandes, une compatibilité Kerberos et le coprocesseur cryptographique 4758 Même si, à  première vue, la V4R5 ne semble pas comporter d'importantes améliorations en matière de sécurité, en y regardant de plus près, on change d'avis. En effet, cette version propose davantage de contrôles sur les actions des utilisateurs grâce à  des points d'exit au niveau des commandes, à  l'accès aux services d'authentification de réseau (Kerberos, par exemple) et à  la manipulation de threads permettant aux utilisateurs de se contenter du niveau de sécurité minimum nécessaire pour une tâche donnée. Ajoutons à  cela une configuration TLS (Transport Layer Security) facile, la recherche de virus dans le courrier électronique pour SMTP (Simple Mail Transfer Protocol) et la cryptographie assistée par le hardware. Nous allons approfondir toutes ces fonctionnalités, qui accroissent la sécurité de la machine.

En utilisant des points d'exit, on peut écrire sa propre version de commandes OS/400

Lire l'article
MandrakeSoft : la magie de Linux

MandrakeSoft : la magie de Linux

par Isabelle Nougier <br />Le syst&egrave;me d'exploitation Linux est devenu en quelques ann&eacute;es un acteur majeur sur le march&eacute; des serveurs. Il se d&eacute;veloppe m&ecirc;me beaucoup plus vite que les pr&eacute;visions des sp&eacute;cialistes. En effet les analystes avaient pr&eacute;vu une place de num&eacute;ro 2 derri&egrave;re Windows NT en 2002 et c'est arriv&eacute; d&egrave;s 1999.

Lire l'article
La sécurité de Windows 2000 et d’Exchange 2000

La sécurité de Windows 2000 et d’Exchange 2000

par Jan De Clercq
Du fait de son étroite intégration avec Active Directory (AD) de Windows 2000, Exchange 2000 Server profite non seulement des fonctions de sécurité de ce dernier, mais bénéficie aussi d'autres améliorations de la sécurité Windows 2000, notamment en matière d'authentification, de contrôle d'accès et d'audit.

Lire l'article
La récupération d’erreurs RPG

La récupération d’erreurs RPG

par Julian Monypenny
Les gestionnaires de conditions peuvent piéger les bogues qui se glissent dans les programmes malgré un coding défensif

Lire l'article
Domestiquer le

Domestiquer le

par Daniel Magid
Stratégies pour gérer un projet de développement d'application Web sur AS/400 Tout le monde veut aller sur le Web. Les sites AS/400 comme les autres. Malheureusement, les utilisateurs AS/400 de longue date sont souvent mal à  l'aise avec les projets Web, parce que ce type de développement doit être géré différemment de celui des applications AS/400 traditionnelles. Apprendre les différences entre deux environnements de développement (AS/400 classique et Web) et les techniques de management du développement sur le Web, comme les systèmes SCM (Software Configuration Management), peut aider les développeurs AS/400 à  s'adapter aux nouvelles réalités du développement d'applications destinées au " Wild, Wild Web ".

Les développeurs Web se préoccupent davantage de la vitesse de développement et de la technologie dernier cri que de la fiabilité et de la sécurité.

Lire l'article
Sept éléments à  connaître sur l’écriture de programmes RPG modulaires

Sept éléments à  connaître sur l’écriture de programmes RPG modulaires

par Bryan Meyers
Utilisez au mieux les techniques ILE pour écrire du RPG performant et facile à  gérer

La conversion des programmes RPG existants à  la syntaxe RPG IV n'est que la première phase du remaniement des applications nécessaires pour exploiter ILE (Integrated Language Environment). Il faut aussi concevoir et construire les applications au moyen de techniques et outils de modularisation ILE. Des modules contenant une ou plusieurs procédures présentent de nombreux avantages : meilleure productivité, code plus fiable, maintenance plus facile et, parfois, applications plus performantes que le modèle monolithique traditionnel. Je propose ici quelques pistes sur la manière d'examiner les applications existantes et de repenser les techniques de développement pour écrire un code RPG modulaire.

Des modules contenant une ou plusieurs procédures présentent de nombreux avantages

Lire l'article
Consolidation de serveurs: pour quoi faire ?

Consolidation de serveurs: pour quoi faire ?

par Sharon Hoffman
Tirez parti de la technologie AS/400 pour réduire les coûts induits d'administration des serveurs et améliorez par la même occasion l'efficacité de la gestion de vos systèmes. La consolidation de serveurs englobe toutes les stratégies et technologies capables de réduire le nombre ou la répartition géographique des serveurs que possède et gère une entreprise. Lorsqu'on minimise le nombre de serveurs et les connexions entre eux, les systèmes d'information fonctionnent de façon plus limpide.

Bien que le principal intérêt de la consolidation de serveurs soit de simplifier l'administration des systèmes, cette démarche peut également induire d'autres avantages allant de la réduction des coûts salariaux associés au personnel informatique à  une amélioration de la disponibilité des systèmes.

Bien que le principal intérêt de la consolidation de serveurs soit la simplification de l'administration, elle peut aussi induire d'autres avantage.

La consolidation des serveurs est un sujet d'actualité au sein de l'ensemble de la communauté informatique. Une rapide recherche sur Internet indique qu'IBM, Hewlett-Packard, Sun et Unisys plaident tous en sa faveur. Au départ, ces constructeurs utilisent tous le même raisonnement de base pour promouvoir leurs solutions de consolidation, à  savoir : la consolidation des serveurs contribue à  réduire le coût de revient global des systèmes.

L'AS/400 est une cible intéressante pour la consolidation des serveurs parce que ses points forts classiques, notamment un potentiel d'évolutivité et une fiabilité très élevés, sont essentiels pour la réussite de tout projet de consolidation de serveurs. Les fonctions d'administration système intégrées à  l'AS/400 contribuent également à  faire de cette plate-forme un concurrent efficace sur le marché de la consolidation des serveurs. Ces atouts, qui ont fait leur preuve depuis longtemps, sont désormais secondés par plusieurs nouvelles technologies AS/400, notamment le partitionnement logique, le clustering, le serveur NetFinity intégré, l'AS/400 NetServer et Domino for AS/400. Ces technologies améliorent d'autant le positionnement de l'AS/400 dans l'arène de la consolidation des serveurs.

Faut-il se lancer dans cette voie ? En fait, la réponse à  cette question dépend d'une corrélation complexe entre plusieurs facteurs dont les coûts et la fiabilité des communications, les prix des licences d'utilisation des logiciels, les possibilités d'évolution du matériel et l'attitude des utilisateurs.

Lire l'article
TSAC : le joyau du SP1 pour les services de terminaux

TSAC : le joyau du SP1 pour les services de terminaux

par Sean Daily
Le but ultime des services d'accès distant dans un réseau est de permettre aux utilisateurs distants d'accéder aux ressources du LAN. Les connexions RAS traditionnelles, telles que celles qu'assurent Windows 2000 et Windows NT, fonctionnent bien pour les besoins de connectivité de base des utilisateurs - par exemple les e-mails ou la navigation sur Internet. Mais des problèmes peuvent survenir lorsque l'on essaie d'en étendre l'utilisation, pour permettre aux utilisateurs d'accéder à  distance, librement, aux outils bureautiques.

Lire l'article
Intel, AMD et les processeurs 64 bit

Intel, AMD et les processeurs 64 bit

par Michael Otey
Prolongeant leur rivalité dans le domaine des puces 32 bit à  la prochaine génération informatique, Intel et AMD prévoient de sortir de nouveaux processeurs 64 bits compatibles x86 en 2001. Mais les deux grands rivaux ont adopté des voies différentes pour leurs prochaines générations de processeurs. Tout comme le bond en avant de puissance obtenu lorsque la plate-forme PC a évolué pour passer du processeur 286 à  16 bits au 386 à  32 bits, le saut au 64 bits promet de faire grimper la technologie PC vers de nouveaux sommets dans l'entreprise. Certes les processeurs 64 bits ne feront pas se calculer plus vite les tableaux Excel, ni tourner plus vite la plupart des autres applications. Mais les nouveaux processeurs répondront à  l'éternel besoin d'augmentation de la puissance du processeur qu'exprime l'informatique haut de gamme. Ce sont les stations graphiques haut de gamme et les grands systèmes de bases de données, tels que Microsoft SQL Server et Oracle, qui bénéficieront le plus directement des nouveaux processeurs. Les sociétés .com (prononcer " dot com ") et le nombre croissant d'applications d'aide à  la décision et de data warehouse sont généralement les forces motrices à  l'origine de la croissance massive des bases de données. Ces applications tireront moins parti des augmentations de vitesse brute des processeurs, que d'une plus grande capacité d'adressage de la mémoire. Les applications de bases de données en particulier sont terriblement gourmandes en RAM. Elles sont d'autant plus performantes qu'elles ont de la mémoire.

L'actuelle génération de processeurs 32 bits peut traiter en natif jusqu'à  4 Go (232 octets) de données. Sur ces 4 Go adressables, Windows 2000 Server réserve 2 Go de stockage pour son propre usage et en laisse 2 pour les applications. L'architecture EMA (Enterprise Management Architecture), que supportent Windows 2000 Advanced Server et Windows 2000 Datacenter, fournit deux méthodes pour étendre la quantité de RAM disponible pour les applications : 4 GT (4 GB RAM Tuning) et PAE (Physical Address Extension). 4 GT ajoute le commutateur /3GB au chemin ARC (Advanced RISC Computing) dans le fichier boot.ini pour permettre aux applications de gérer jusqu'à  3 Go de RAM. PAE utilise une fenêtre pour mapper des tranches de mémoire physique à  l'espace d'adressage virtuel d'une application et étendre la capacité d'adressage de la mémoire physique à  8 Go sur Windows 2000 Advanced Server et à  64 Go sur Windows 2000 Datacenter Server. (Pour en savoir plus sur le support EMA de Datacenter, voir l'article de Gregg Todd " Windows 2000 DataCenter : Microsoft vise la cours des grands ").
Les futurs processeurs 64 bits vont étendre considérablement la quantité de mémoire physique adressable disponible pour les systèmes haut de gamme. Les processeurs 64 bits d'Intel et AMD mettront la barre très haut, atteignant 16 exaoctets (EO), soit environ 18 milliards de gigaoctets (264 octets) - plus qu'il n'en faut, même pour les applications les plus massives d'aujourd'hui.

Les processeurs 64 bits ont en fait deux fonctions importantes. Outre la capacité d'utiliser 64 bits pour définir une adresse en mémoire, ils peuvent manipuler 64 bits de données simultanément. Etant donné que la capacité de manipuler 64 bits de données à  la fois dépend plus de la structure des bus que des processeurs, la tendance vers le traitement 64 bits va de pair avec d'importants progrès en matière de technologie des bus système.

Bien que partageant clairement un objectif commun, Intel et AMD ont choisi des chemins très différents pour atteindre leur destination

Lire l'article
Etablir des règles : le secret d’une parfaite intégrité

Etablir des règles : le secret d’une parfaite intégrité

par Carol Woodbury
S'assurer l'intégrité de ses collaborateurs et fournisseurs à  travers une politique de sécurités d'entreprise claire Avez-vous déjà  joué à  un jeu de cartes sans en connaître toutes les règles ? Le jeu commence, et soudain un joueur avance une carte qu'un autre considère comme interdite. Il s'ensuit une discussion houleuse pour déterminer celui qui a raison. Le jeu se termine souvent prématurément, et personne ne s'est amusé. Pour ma part, je préfère jouer à  un jeu de cartes dont tous les joueurs connaissent les règles. En sachant à  quoi s'attendre, on évite les discussions, et tout un chacun a les éléments pour gagner.

Gérer une entreprise sans politique de sécurité revient à  jouer à  un jeu de cartes dont personne ne connaîtrait les règles. Tout se passe peut-être bien au début, mais qu'advient-t-il si par exemple l'administrateur Web autorise des téléchargements FTP dans les deux sens, vers et à  partir du serveur Web ? Le responsable de la sécurité réprimandera l'administrateur Web. Sans une réelle politique de sécurité, rien ne permet de déterminer si les règles de la société permettent de faire des téléchargements vers le serveur Web. La querelle éclate, les esprits s'échauffent, l'administrateur Web estime que c'est à  lui d'autoriser les téléchargements vers le serveur Web. L'administrateur de sécurité pense au contraire que c'est de son ressort. Qui a raison ?

Une politique de sécurité est un document vital pour l'entreprise

Une politique de sécurité est un document vital pour l'entreprise. Il liste les règles et procédures de mise en oeuvre des sécurités. La conception de cette politique de sécurité d'entreprise est un acte de gestion primordial, tout aussi important que la politique salariale. Une fois la politique mise en place, il est possible d'analyser une proposition de nouveaux procédés ou méthodes, et de voir si elle s'inscrit dans les règles. Une politique de sécurité peut ainsi régler les différends et éviter des luttes de pouvoir.

La politique de sécurité présente un autre avantage : elle aide à  conserver la " mémoire de l'entreprise ". La rotation du personnel peut faire des ravages dans un service informatique si personne n'a répertorié les politiques et procédures en vigueur. Enfin, une politique de sécurité fournira une documentation officielle s'il fallait un jour avoir recours à  la justice pour non-respect des règles.

On peut rassembler toutes les politiques de sécurité dans un même document ou bien créer un document couvrant les politiques de sécurité générales et lui adjoindre des annexes décrivant les règles propres à  chaque système d'exploitation comme l'OS/400 et AIX.

Il n'existe pas de politique de sécurité unique convenant à  toutes les entreprises

Lire l'article
De gré ou de force, les constructeurs adoptent une stratégie Linux

De gré ou de force, les constructeurs adoptent une stratégie Linux

par René Beretz
A l'heure de l'adoption de Linux en entreprise, la stratégie des constructeurs informatiques évolue considérablement. La stratégie des constructeurs informatiques envers les systèmes d'exploitation a changé. Les systèmes propriétaires n'ont plus le vent en poupe et la plupart des sociétés vantent les standards. Mais du discours à  la réalité, il reste du chemin à  parcourir. Ne serait-ce que dans le monde Unix, il reste des différences bien réelles et une concurrence effective entre AIX d'IBM, HP-UX de Hewlett-Packard ou Solaris de Sun. Les constructeurs ont cependant sauté sans trop d'états d'âme sur la vague Linux qui a rattrapé également les groupes de travail qui se préoccupent de convergence d'Unix. Il est fort probable que l'avenir des différents Unix va donc dépendre de cet outsider.
De fait, poussés par l'engouement des développeurs, les entreprises commencent à  adopter Linux et il devient donc essentiel pour les constructeurs d'être présents sur ce créneau. En outre, il leur offre l'opportunité de se repositionner sur le marché de l'éducation et sur certains marchés étrangers.

Les constructeurs ont cependant sauté sans trop d'états d'âme sur la vague Linux

L'attitude des constructeurs oscille entre deux extrêmes : certains ont élaboré une vraie stratégie Linux : ils ont adopté une attitude dynamique qui devance le marché : c'est le cas, en particulier, d'IBM, de Hewlett-Packard et de Silicon Graphics.
D'autres sociétés se contentent de proposer des solutions Linux pour répondre aux attentes de leurs clients : c'est le cas de Compaq ou de Dell. Entre les deux, Sun accompagne le mouvement tout en protégeant ses acquis.

Lire l'article
Mettre en place des stratégies d’accès distant

Mettre en place des stratégies d’accès distant

par Douglas Toombs
Il y a 5 ou 6 ans, deux grands acteurs s'affrontaient autour d'une proie alléchante, baptisée « part de marché ». Celle qui remporterait la plus grosse part serait adorée par les richissimes habitants consensuels d'un pays mystique répondant au nom implacable de Wall Street. A l'époque cette part était entre les griffes de Novell et Microsoft la convoitait. Ceux de nos lecteurs qui fréquentent l'univers de l'informatique depuis suffisamment longtemps pour se rappeler les premiers pas de Windows NT, savent que si Microsoft a pu glisser un pied dans la porte (y compris de certains comptes Novell purs et durs), c'est grâce à  l'ajout à  NT de services inexistants sur les autres plates-formes. A l'époque, un de ces cadeaux gratuits les plus connus fut le service d'accès à  distance RAS. Ses concurrents les plus acharnés étaient les périphériques matériels propriétaires et Novell NetWare Connect, mais leurs coûts de licences par port étaient très élevés.
Windows NT s'est lentement infiltré dans les organisations en introduisant l'un après l'autre des services gratuits répondant à  des besoins spécifiques des consommateurs. Malheureusement, bon nombre de ces " plus " n'ont pas atteint la même maturité que Windows NT au fil des ans. Malgré quelques améliorations à  chaque révision du système d'exploitation, RAS s'est avéré insuffisant dans certains domaines importants pour entreprises, en particulier pour ce qui est de gérer quel utilisateur peut se connecter à  un serveur RAS et à  quel moment. Le RAS de NT n'est pas étranger à  la sécurité des domaines et aux stratégies de comptes, mais les administrateurs veulent souvent pouvoir contrôler davantage les utilisateurs appelant de l'extérieur. Pour répondre à  leurs attentes, Microsoft a ajouté à  Windows 2000 Server des stratégies d'accès à  distance que RAS peut appliquer aux connexions entrantes.

Lire l'article
Initiation aux concepts de l’OO (Orienté Objet)

Initiation aux concepts de l’OO (Orienté Objet)

par Sharon L. Hoffman
En apprenant les concepts de base de l'orienté objet, on peut peser le pour et le contre de cette technologieLa technologie OO (Orientée Objet) a la réputation bien méritée d'être gourmande en temps et en argent. Pourtant, ses défenseurs affirment qu'elle permet de freiner la hausse des coûts de maintenance applicative. On comprend donc parfaitement que beaucoup d'utilisateurs hésitent à  investir dans cette technologie sans en avoir au préalable bien cerné les avantages et les risques potentiels. Il ne saurait être question d'expliquer la programmation OO dans un seul article. Cependant, en s'écartant quelques instants des détails de mise en oeuvre de Java et des complications du langage UML (Unified Modeling Language), on voit qu'il y a quelques concepts OO de base permettant de comprendre l'idée fondamentale et d'évaluer l'investissement nécessaire pour récolter les fruits que promet cette méthode de programmation.

Lire l'article
Exceptionnels ! Les Gestionnaires d’exceptions du RPG !

Exceptionnels ! Les Gestionnaires d’exceptions du RPG !

par Gary Guthrie
Passez en revue les possibilités de traitement des exceptions en RPG. Et voyez comment les gestionnaires de conditions et d'annulation de ILE pallient certaines des limitations du RPG/400Dring . . . dring . . . .

"Informatique. Francis à  l'appareil."

"Salut, Francis. C'est André du Service Financier. Un message d'erreur est apparu sur mon terminal il y a quelques instants, et maintenant plus rien ne fonctionne correctement !"

D'une voix calme, Francis demande, "Quel était ce message ?"

"Quelque chose à  propos d'un fichier ayant quelque chose, ou quelque chose de ce genre, je pense" répond André avec confiance.

"Pas de problème, je m'en occupe" répond Francis. Puis elle raccroche le téléphone et murmure "Bien, bien".

 Vous avez sûrement déjà  entendu çà , n'est-ce pas ? Heure après heure et franc après franc, les ressources de l'informatique s'amenuisent dès lors que les programmeurs consacrent un temps précieux aux réparations, après le crash d'une application. Or, on peut éviter les coûts et les migraines entraînés par les problèmes applicatifs, en plaçant le traitement des exceptions en tête de la liste des considérations en matière de conception d'applications.

Il existe de nombreux types d'exceptions et leurs techniques de traitement diffèrent en fonction de leur type, du langage utilisé, et du l'environnement modèle de programme (OPM et EPM vs ILE). Je classerai donc les exceptions en trois groupes distincts :

  • Exceptions concernant les fichiers. Il s'agit d'erreurs, comme les I/O sur des fichiers non encore ouverts, des types d'enregistrement indéfinis, des erreurs de programmes triggers et des erreurs d'unités.

  • Exceptions concernant les programmes applicatifs. Ce sont des exceptions comme des erreurs d'index de tableaux invalides, les divisions par zéro et les erreurs lors de l'appel de sous-programmes. La liste des erreurs de programmes possibles est énorme.

  • Exceptions associées au système. Il s'agit d'événements comme des défaillances de lignes de communications, des programmes annulés par les utilisateurs et une défaillance du code du système d'exploitation.

            Le plus souvent, des techniques de coding appropriées empêchent ces exceptions de provoquer des fins anormales. Les exceptions associées au système sont les plus délicates, parce qu'on les maîtrise parfois fort peu au niveau applicatif. Il est ainsi impossible d'écrire un code suffisamment parfait pour qu'il évite toute erreur du système d'exploitation.

            Quant aux langages évolués (HLL), chacun d'entre eux possède ses propres mécanismes de traitement des erreurs. Le CL par exemple, utilise abondamment la commande MONMSG (Monitor Message) pour piéger les exceptions. Les gestionnaires d'exceptions du RPG comportent des indicateurs d'erreur ou l'extension E sur certai

Lire l'article
Accéder aux membres de fichiers

Accéder aux membres de fichiers

par Jef Sutherland
Comment gérer les membres de fichiers, et quelques astuces de programmation CL pour générer un nom de membre unique Dans un récent article, nous avons vu les chemins d'accès indexés pour fichiers physiques et logiques, et comment lire des enregistrements à  partir d'un fichier avec clé. Aujourd'hui, nous allons examiner un autre aspect des fichiers AS/400 : les membres de fichiers. Nous allons aussi évoquer quelques astuces de programmation CL pour générer un nom de membre unique.

Lire l'article
XML: langage d’avenir du commerce électronique

XML: langage d’avenir du commerce électronique

XML fait actuellement son apparition dans de nombreux projets de commerce électronique XML (Extensible Markup Language) jouera probablement un rôle primordial dans le développement du commerce électronique. Sa capacité à  décrire les données dans un format ouvert standard aidera les consommateurs à  rechercher des informations produits sur le Web et simplifiera les échanges de données interentreprises par Internet. A n'en pas douter, XML transformera radicalement la manière d'acheter des consommateurs et, plus particulièrement pour les entreprises, celle d'acheter et de vendre des biens.

Dans cet article, nous allons examiner l'impact de XML sur le e-commerce.
Pourquoi suscite-t-il autant d'intérêt ?
Comment s'assurer de participer au devenir de XML et du commerce électronique ?
Les entreprises qui sont actuellement en train de mettre sur pied des transactions HTML devraient commencer sans tarder à  envisager XML.

A n'en pas douter, XML transformera radicalement la manière d'acheter des consommateurs

Lire l'article
Compaq et DC : une histoire d’amour

Compaq et DC : une histoire d’amour

par Benoît Herr
On le sait, dans les offres tournant autour de Windows 2000 DataCenter (DC), service, logiciel et matériel sont intimement liés, ce triptyque se mettant au service de la haute disponibilité. Chez Compaq, l'un des acteurs majeurs de cette nouvelle offre, SYSTEMS Journal a rencontré Robert Vassoyan et Ilham Ouzzani, pour faire un point sur la stratégie du constructeur en la matière. Le programme Windows 2000 Datacenter de Compaq, tout comme les programmes équivalents de ses concurrents, est une solution de haute disponibilité complète, englobant le ou les serveurs, le système d'exploitation Windows 2000 Datacenter de Microsoft, les solutions de stockage, de clustering et d'administration, ainsi que les services d'accompagnement, et clés en main. Ce type de solution n'est commercialisé que par des constructeurs agréés par Microsoft, c'est-à -dire qui ont passé avec succès les tests HCT. Au moment où nous mettions sous presse, ils étaient au nombre de deux : Unisys et Compaq.
D'autres constructeurs sont cependant en cours d'agrément, et devraient arriver sur le marché courant 2001. Certains seront peut-être déjà  dans le circuit au moment où vous lirez ces lignes. Il s'agit de Hewlett-Packard et IBM, talonnés par Fujitsu-Siemens, Stratus, et Dell, et peut-être aussi par Bull, ICL, NEC et Amdahl.

La cible de ce nouvel OS, à  travers lequel Microsoft espère gagner enfin la crédibilité qui lui a jusqu'ici été refusée depuis l'annonce initiale de Windows NT, et des programmes DataCenter des différents constructeurs agrées est très clairement les entreprises ayant besoin de haute disponibilité, et qui ne peuvent pas se permettre d'assumer les coûts d'une interruption de service.
Autrement dit, un marché jusqu'ici réservé aux gros Unix, mainframes, et autres systèmes "propriétaires", comme l'AS/400. Microsoft avoue d'ailleurs humblement son absence de ce marché, puisqu'elle représente selon ses propres dires 1,3% du nombre des serveurs d'entreprise de plus de 100.000$. Lorsqu'on traduit cette présence en chiffre d'affaires, le ratio tombe carrément à  0,5%.
Inversement, ces chiffres signent également le formidable potentiel de développement pour la firme de Redmond sur ce marché. A condition toutefois de se montrer à  la hauteur des attentes des entreprises, qui se proposent là  de lui confier leurs applications vraiment critiques. Mais à  en juger par la façon d'appréhender le problème de Microsoft, tout laisse à  penser que le succès devrait être au rendez-vous.

Au delà  de sa position de précurseur, aux côtés d'Unisys, Compaq, qui équipe l'ensemble des filiales Microsoft à  travers le monde, occupe une place un peu privilégiée dans son partenariat avec Microsoft. Nous avons demandé à  Robert Vassoyan, Directeur Industry Standard Server Division chez Compaq France pour la partie offre matérielle et logicielle, et à  Ilham Ouzzani, Chef de Produit Business Critical Marketing & Développement des Ventes pour la partie services de nous en dire plus.

La cible de ce nouvel OS et des programmes DataCenter des différents constructeurs agrées est très clairement les entreprises qui ne peuvent pas se permettre d'assumer les coûts d'une interruption de service

Lire l'article
Les Bugbusters de Rochester

Les Bugbusters de Rochester

par Joanna Moore
A Rochester, une armée de clients en bêta-test traque les imperfections dans le nouveau matériel et logiciel avant que l'utilisateur final ne les découvre.

Lire l'article
Protocoles de sécurité : un état des lieux

Protocoles de sécurité : un état des lieux

par Mel Beckman
Sécurisez vos transactions électroniques en suivant de près l'évolution des protocoles de sécurité du commerce électronique Lorsque le protocole SSL (Secure Sockets Layer) est arrivé sur le marché il y a 6 ans, les experts y ont vu la solution au problème de sécurité du commerce électronique. Et il est vrai que SSL a beaucoup contribué à  rassurer les internautes utilisant leurs numéros de cartes de crédit pour les achats en ligne, faisant ainsi exploser les ventes grand public sur le Web. SSL remplit bien sa fonction de cryptage des données circulant entre l'acheteur et le vendeur, pour déjouer l'interception par les voleurs des informations contenues sur les cartes de crédit.

Si la sécurité du commerce électronique se limitait à  cela, SSL aurait donc résolu la totalité des problèmes. Mais si la protection des numéros de cartes de crédit et d'autres informations sensibles dans les transactions HTTP est le problème le plus visible, ce n'est que le sommet de l'iceberg. Toutes les composantes d'une transaction de paiement électronique ne passent pas par HTTP. Le vendeur peut utiliser d'autres protocoles (courrier électronique, FTP (File Transfer Protocol), LDAP (Lightweight Directory Access Protocol) par exemple) comme moyen de règlement et pour s'assurer que l'argent aboutit bien dans son compte en banque. Une fois le numéro de carte de crédit reçu par le vendeur, il faut valider le numéro, faire approuver l'achat par l'organisme émetteur de la carte, et débiter l'organisme financier de l'acheteur (figure 1).
L'ensemble du processus de transaction n'a pas de protection standard. Pis encore, une faille du dispositif de sécurité peut intervenir dans l'une des étapes suivant la commande HTTP sans que l'acheteur n'en ait connaissance. Les acheteurs en ligne se croient donc plus en sécurité qu'ils ne le sont réellement.

Heureusement, les standards des protocoles Internet sont en train de changer pour combler ces lacunes en matière de sécurité. Malheureusement, ils ne changent pas assez vite et aucun standard de sécurité à  lui seul ne répond aujourd'hui à  tous les besoins. SSL est en train de devenir un transport multiprotocoles et a été rebaptisé TLS (Transport Layer Security) mais son adaptation au cryptage autre que HTTP pose des problèmes. L'autre principal protocole de sécurité, SET (Secure Electronic Transactions), est très efficace mais tellement lourd à  mettre en oeuvre que peu d'entreprises l'utilisent.

Pour arriver à  une bonne sécurité des transactions, il est important de bien comprendre les avantages et les limites de chaque protocole. De plus, une petite connaissance de l'historique de chaque protocole donne un peu plus d'éclairage et peut aider à  choisir le cryptage le mieux adapté au commerce électronique. Enfin, il est bon de savoir ce que l'AS/400 propose dans ce domaine.

Lire l'article