Administrer tous les browsers Web de l’entreprise avec IEAK
La modification d'un tout petit paramètre sur le PC de tous vos utilisateurs peut
simplifier l'administration quotidienne, mais la taille du parc machine de votre
entreprise et le travail qui s'empile sur votre bureau risquent fort de ne pas
vous permettre de procéder à ce petit changement. Une fonction peu connue d'Internet
Explorer (IE), baptisée configuration automatique, peut résoudre ce problème et
contribuer à faire baisser le coût global de possession (TCO).
Les OS modernes ont atteint un niveau de complexité parfois difficile à gérer
et les administrateurs doivent souvent évaluer les modifications d'infrastructure
au cas par cas.
Malheureusement, il leur faut bien faire le lien entre les changements logiques
et le coût de leur mise en oeuvre.
Parfois, il suffit d'une petite modification sur tous les ordinateurs de la société
pour améliorer l'administration quotidienne, mais intervenir sur tous les postes
de travail est souvent impossible. Avec la configuration automatique du kit d'administration
de Microsoft Internet Explorer (IEAK pour Internet Explorer Administration Kit),
peut résoudre ce problème et contribuer à faire baisser le coût global de possession
(TCO). Cette fonction permet, en quelques clics de souris et frappes de touches
sur une machine, de modifier les paramètres de l'application sur les milliers
d'ordinateurs de votre organisation.
SQL Server 2000 : Le modèle OIM
Un groupe d'éditeurs et d'entreprises utilisatrices a formalisé les types de métadonnées
pour les entrepôts de données. C'est devenu l'OIM (Open Information Model)
Avant les efforts de normalisation de Microsoft, les éditeurs et la communauté
informatique ne parvenaient guère à se mettre d'accord sur le type de métadonnées
qu'un entrepôt de données devait contenir.
Par la suite, Microsoft a entrepris de réunir les principaux éditeurs et les entreprises
utilisatrices pour déterminer ces types de métadonnées. A l'instar du modèle objet
pour une application, le modèle d'information pour un référentiel définit le genre
de métadonnées stockées dans l'entrepôt de données, et la manière dont ces données
sont organisées.
Ces efforts ont conduit à la définition de l'OIM (Open Information Model). Celui-ci
contient les définitions d'approximativement 300 types d'objets et des relations
entre ces types d'objets. La documentation de ces types représente une tâche laborieuse
; le groupe a pour mission de définir et de documenter clairement chaque type
ainsi que ses caractéristiques et relations nécessaires.
Etant donné que le modèle d'information définit les métadonnées en termes de types
d'objets et de relations, la recherche d'une technologie de modélisation d'objets
appropriée est la solution évidente. Le groupe a choisi UML (Unified Modeling
Language) pour documenter et publier le modèle d'information. Le standard OIM
constitue le langage commun pour décrire les informations contenues dans un entrepôt
de données.
En juillet 1999, Microsoft a transféré la propriété du standard OIM à la MDC (Meta
Data Coalition), un organisme indépendant qui se consacre à la création de normes
communes facilitant l'échange d'informations entre systèmes (métadonnées). Au
fur et à mesure que la MDC va faire évoluer le modèle, elle va encourager et aider
les autres éditeurs à prendre en charge le standard OIM au sein de leurs outils
respectifs. La MDC publie les formats XML (Extensible Markup Language) comme méthode
d'échange de données entre différents outils utilisant le standard OIM. Ce dernier
limite la complexité de l'extraction et de l'insertion des données de/dans Microsoft
Repository et les outils d'autres éditeurs.
La version actuellement validée du standard OIM (initialement soumise par Microsoft
et ses éditeurs partenaires) est la 1.0 ; une proposition de version 1.1 a été
soumise en novembre 1999, et devrait en toute logique être validée en 2000. Les
exemples et descriptions présentés dans le présent article s'appuient sur la version
1.1. Ces exemples nécessitent la version 3 de Microsoft Repository, disponible
avec SQL Server 2000. La version 2 de Repository ne supporte pas les collections
ni les propriétés héritées, que le standard OIM MDC utilise intensivement.
Le standard OIM couvre de nombreux domaines, dont :
· L'analyse et la conception d'UML, les extensions UML, les éléments génériques,
les types de données communs et la modélisation entités-relations
· Objets et composants : description des composants
· Base de données et entrepôts de données : schémas de bases de données relationnelles,
transformations de données, schémas OLAP, schémas de bases de données orientés
enregistrements, schémas XML et définitions des rapports
· Ingénierie de processus de gestion : objectifs commerciaux, règles et processus,
éléments organisationnels.
· Gestion de la connaissance : descriptions des connaissances et définitions sémantiques
D'un point de vue data warehousing, les schémas de bases de données relationnelles,
les transformations de données et les modèles de schémas OLAP sont les plus appropriés.
On peut télécharger chaque modèle en tant que fichier .mdl depuis le site Web
de la MDC, puis utiliser un outil de conception comme Visual Modeler ou Rational
Rose pour le visualiser.
Chaque objet figurant dans un référentiel peut avoir trois propriétés : un nom
(255 caractères au maximum), une courte description (255 caractères au maximum)
et des commentaires (de longueur pour ainsi dire illimitée). Ces zones, qui sont
la source d'une grand
Mettez un tigre dans votre firewall
Indispensables pour sécuriser un réseau connecté à l'Internet, les firewalls ne suffisent plus pour garantir une protection suffisante. Ce sont en effet des systèmes statiques imposant un ensemble particulier de règles et permettant, par conséquent, à des pirates d'utiliser des paquets valides pour attaquer un réseau et en compromettre la sécurité. Pour une protection complète, surtout de Windows NT et du protocole IP, il vous faut plus qu'un simple firewall. Pour situer les problèmes potentiels, avant que des hackers (les intrus qui pénètrent les systèmes avec des intentions généralement malveillantes) ne les exploitent à l'intérieur ou à l'extérieur de votre réseau, vous avez le choix entre plusieurs outils de sécurité, tels que les scanners de ports, tests de vulnérabilité, analyseurs de journaux et autres détecteurs d'intrusion.
Lire l'articleCommerce électronique : le marché aux puces
Beaucoup d'entreprises considèrent toujours les cartes à puce comme une technologie
futuriste. C'est peut-être le cas de la vôtre. Pour Windows 2000, en revanche,
elles sont d'ores et déjà une réalité bien actuelle, et bénéficieront donc d'un
support extrêmement intégré.
Cet article présente les cartes à puce, en expliquant leur importance et leur
fonctionnement et comment commencer à les utiliser dans Windows 2000. Nous détaillerons
plus particulièrement la configuration d'une connexion avec la carte à puce GemSAFE
de Gemplus et le lecteur GCR410. Et comme cette technologie n'est pas parfaite
non plus, nous verronségalement un certain nombre de risques qui lui sont inhérents.
Les cartes à puce permettent de créer une infrastructure à clé publique (PKI pour
public key infrastructure), laquelle facilite, à son tour, l'e-commerce. Une PKI
permet d'atteindre un niveau de confiance pour les transactions électroniques,
au moins égal à celui de l'univers du papier et de la signature manuscrite. Une
PKI peut garantir l'intégrité des messages, la confidentialité et le non-reniement.
Vous ne pouvez pas nier avoir envoyé un message, s'il est signé de votre certificat
numérique, puisque votre clé publique vérifie votre signature.
Si une clé publique vérifie avec succès une signature, la seule personne qui a
pu envoyer le message est celle qui détient la clé publique. La pierre angulaire
de la sécurité d'une PKI est que la clé privée associée à un certificat numérique
doit rester privée. Sinon, un hacker peut utiliser une clé privée pour contrefaire
facilement les transactions.
Les cartes à puce permettent de créer une infrastructure à clé publique
(PKI), laquelle facilite, à son tour, l'e-commerce
Intégrité référentielle avec SQL Server
par Kalen Delaney
La maintenance des relations logiques entre les tables est un élément essentiel de la gestion de base de données. Voici comment utiliser les nouvelles méthodes d'application de l'intégrité référentielle dans SQL Server 2000.Le maintien de relations solides est primordial.
La création et le maintien de relations logiques entre les tables constituent une partie fondamentale du travail avec des bases de données relationnelles. La plupart des bases de données doivent entretenir certaines relations, sous peine de corruption logique des données. Lorsque de telles relations existent, on dit que ces données disposent d'une intégrité référentielle. L'une des tables est la table référencée et l'autre, la table de référence ; les valeurs de la table de référence doivent correspondre aux valeurs de la table référencée. (Certaines utilisateurs qualifient cette relation de tables parent/enfant. Toutefois, cette terminologie implique une hiérarchie évitée par le modèle relationnel). SQL Server peut mettre en oeuvre automatiquement l'intégrité référentielle à travers des contraintes de clés étrangères que vous aurez préalablement définies. Cette fonction est appelée intégrité référentielle déclarative (en anglais "Declarative Referential Integrity" ou DRI) en raison de sa présence dans la définition de la table. On peut également utiliser d'autres fonctions, comme les déclencheurs, pour imposer des relations ; on parle alors d'intégrité référentielle de procédure. Dans cet article, je présente comment gérer l'intégrité référentielle dans SQL Server, en accordant une attention particulière aux nouvelles fonctions intéressantes de SQL Server 2000.
SQL Server 7.0 et les versions précédentes disposaient d'une seule méthode pour traiter les tentatives de violation des contraintes de clés étrangères. Si un utilisateur tente de modifier les données d'une table d'une manière qui pourrait violer l'intégrité référentielle (telle qu'elle est définie dans les clés étrangères), SQL Server empêche cette modification et renvoie un message d'erreur. SQL Server 2000 dispose d'une nouvelle fonction cascade pouvant traiter les violations de l'intégrité référentielle d'une autre manière, comme je vais vous le démontrer.
Pour commencer, analysons rapidement un exemple permettant de clarifier ce que représente l'intégrité référentielle. La base de données Northwind dispose d'une table appelée Orders, et d'une autre, appelée Order Details. Dans la table Orders, la colonne OrderId représente la clé primaire identifiant chaque commande de manière unique. La table Order Details possède également une colonne OrderId mais, dans cette table, la colonne est une clé étrangère qui doit correspondre à un OrderId existant de la table Orders. Dans cet exemple, la table Orders est la table référencée et la table Order Details est la table de référence. Si on définit une contrainte de clé étrangère pour mettre en oeuvre la relation entre les tables Orders et les Order Details, SQL Server vérifie que la modification de l'une de ces tables ne viole pas la relation. Si par exemple on essaye de supprimer un enregistrement de la table Orders alors que l'OrderId de cet enregistrement existe dans la table Order Details, la suppression violera la contrainte d'intégrité référentielle. Tenter de mettre à jour une colonne OrderId de la table Orders lorsque la valeur d'origine, et non la nouvelle valeur, existe dans les Order Details, constitue également une violation. En outre, SQL Server doit vérifier chaque insertion dans Order Details pour s'assurer que le nouvel OrderId existe dans la table Orders, et doit vérifier toutes les mises à jour de la colonne OrderId dans Order Details.
Partager les connexions Internet
Le routage IP du LAN vers le WAN est un thème récurrent depuis plusieurs années.
Cet article fait le point sur les aptitudes de Windows NT à router le trafic IP.
En1992, j'ai décidé d'établir mon entreprise sur le Web. Je me suis donc adressé
à un ISP pour me procurer 256 adresses IP. L'entreprise devait héberger ses propres
serveurs Web et de messagerie et il fallait par conséquent des connexions Internet
24 x 7. Au lieu d'acheter un routeur LAN-WAN de Cisco Systems ou autres constructeurs,
je trouvai l'expérience beaucoup plus enrichissante de construire moi-même un
routeur.
Ce premier routeur devait servir à traiter OS/2 2.0 et TCP/IP pour OS/2. Dès que
Windows NT se mit à supporter le routage IP, je remplaçai OS/2 par NT. Puis je
rédigeai une série d'articles pour Windows 2000 Magazine pour expliquer comment
faire d'un système NT un routeur LAN-WAN.
es articles continuent à générer une importante quantité de courrier, décrivant
tous le même scénario et posant constamment la même question : J'ai
un ordinateur chez moi connecté à Internet par une liaison ADSL/modem câble/RNIS.
J'ai aussi plusieurs autres machines chez moi.
Comment configurer mon PC connecté à Internet pour partager sa liaison Internet
avec les autres machines ?
Après la publication des premiers articles, j'ai revu la question deux fois
- d'abord lorsque Microsoft a sorti le code de routage amélioré RRAS (dit Steelhead),
puis pour la sortie de Proxy Server 2.0. RRAS n'était pas la bonne réponse pour
les télétravailleurs, car il exigeait que chaque machine ait une adresse IP fournie
par l'ISP. Or, la création d'adresses aléatoires ne fonctionnait pas pour des
machines domestiques. Proxy Server contournait le problème mais en posait un autre
en raison des frais occasionnés - dans les 1000 dollars.
Avec Windows 98 SE ou Windows 2000 Professional, il suffit de quelques
clics de souris et de rebooter pour profiter facilement du routage
Mais avec Windows 98 Second Edition (Win98SE) ou Windows 2000 Professional,
il suffit de quelques clics de souris et de rebooter les PC pour profiter facilement
du routage. Win98SE devait être disponible au moment où vous lirez cet article
et Windows 2000 Pro et Windows 2000 Server sortiront probablement très bientôt.
Malheureusement Microsoft n'offrira pas Win98SE à tout le monde - comme les versions
OSR (Version de service OEM) de Win95, il ne sera disponible qu'avec l'achat d'un
nouvel ordinateur. Mais si vous pouvez attendre jusqu'à la sortie de Windows 2000
ou si vous achetez un nouveau PC, le routage facile c'est pour bientôt.
Contrôlez vos services d’annuaire avec un proxy LDAP
Ces dernières années les services d'annuaire ont vu leur cote monter dans les
entreprises. Le succès grandissant de Novell avec Novell Directory Services (NDS)
et le lancement par Microsoft d'Active Directory (AD) ont été des raisons suffisantes
pour décider un grand nombre d'entreprises à explorer le potentiel des services
d'annuaire dans leurs environnements.
L'interface proxy LDAP (Lightweight Directory Access Protocol) séduit les entreprises
en leur offrant un large éventail d'informations d'identité grâce à une réplique
virtuelle, sans la consommation de CPU impliquée par une duplication des données
et la propagation des changements à travers un réseau.
En 1995 LDAPv2 a inauguré un protocole d'accès d'annuaire standard et, en 1997,
LDAPv3 a étendu le protocole en lui ajoutant plusieurs fonctions.
Pour tout savoir sur LDAP, voir les RFC (Request for Comments) 1 777, pour LDAPv2,
et 2 251, pour LDAPv3, de l'IETF à l'adresse
http://www.ietf.org/rfc.html
Les éditeurs ont immédiatement commencé à développer des produits LDAP.
Par exemple, Microsoft a permis la consultation d'Exchange Server au moyen de
LDAP. Dans d'autres produits compatibles LDAP, les éditeurs s'appuient sur un
annuaire LDAP disponible pour stocker des données sur les utilisateurs, leurs
profils et des informations de configuration.
Par exemple, les produits SiteMinder de Netegrity et FireWall-1 de Check Point
Software Technologies utilisent soit des services d'annuaires propriétaires, soit
un service d'annuaire d'éditeur tiers, comme Netscape Directory Server, pour stocker
des informations sur les utilisateurs et les stratégies.
Pour un produit maintenant une base de données d'utilisateurs ou un annuaire interne,
il ne faut que quelques efforts de développement pour permettre la consultation
de la base de données ou de l'annuaire via LDAP. En revanche l'utilisation d'annuaires
LDAP est plus difficile car les produits LDAP comptent sur une entreprise pour
avoir un annuaire supportant les besoins spécifiques des applications.
La fonctionnalité LDAP rend aussi plus difficile le support entre produits.
Lorsque AD aura acquis une position de force et offrira un niveau de service garanti
et des informations sur lesquelles les autres applications pourront s'appuyer,
on assistera probablement à une forte reprise de l'activité LDAP.
Actuellement, trois éditeurs proposent des serveurs proxy LDAP autonomes : Innosoft
International, avec ILPS (Innosoft LDAP Proxy Server), MaXware Benelux avec MLPS
(MaXware LDAP Proxy Server) et NEXOR avec DBA (Directory Boundary Agent).
La médiation LDAP peut aider à garder le contrôle lorsqu'il s'agit d'accorder
l'accès à plusieurs ressources compatibles LDAP, en l'absence de solution de métaannuaire
intégrale ou d'une maîtrise totale des ressources compatibles LDAP, dont il faut
autoriser l'accès.
Nous allons examiner les services proxy LDAP liés aux services d'annuaire, un
certain nombre de serveurs proxy LDAP disponibles, ainsi que les limites et les
avantages de l'utilisation d'un proxy LDAP. Je donnerai également quelques conseils
sur l'opportunité d'une implémentation de services proxy.
Un proxy LDAP est un médiateur entre un client LDAP et une ou plusieurs
ressources compatibles LDAP, généralement des serveurs
Comment se faire payer on-line
Les options de paiement électronique se multiplient : faites votre choix avec
précaution.
Que votre entreprise soit traditionnelle ou un
commerce on-line, les clients doivent vous payer vos produits et services. Une
entreprise traditionnelle se sentira probablement plus à l'aise en recevant des
espèces et des chèques.
Toutefois, bien que l'argent liquide soit en principe une valeur sûre, un chèque
est moins sûr.
En effet, même après avoir réceptionné un chèque, on ne peut pas encore être certain
de l'encaisser. Ce n'est que quelques jours plus tard, lorsque la banque encaissera
le chèque que l'on a déposé que l'on peut être sûr d'avoir été payé.
Le paiement par le biais de certaines transactions financières électroniques offre
plus de garanties.
De plus, pour les entreprises on-line, être capable de gérer les modes de paiement
électroniques est une nécessité Les banques préfèrent les transactions électroniques
car elles sont plus efficaces et moins chères à gérer. Avec l'EDI, par exemple,
une entreprise cliente peut envoyer un ordre de paiement à sa banque afin que
celle-ci transfère des fonds à la banque du fournisseur électroniquement. La banque
réceptrice notifie le fournisseur de la date et du montant du transfert à l'avance,
de sorte que l'entreprise puisse organiser et planifier sa trésorerie.
Cependant, nous devons désormais faire face à un nouveau défi : les informations
concernant les ordres de paiement et de versement circulent sur l'Internet.
Quelles sont les possibilités de paiement que les consommateurs et les entreprises
peuvent utiliser sur le Web, et quels sont leurs degrés de fiabilité ?
Les banques prévoient deux types de paiement pour les transactions de commerce
électronique : des mécanismes de paiement en temps réel (porte-monnaie électroniques,
cartes à puce) et des mécanismes de paiement différés (chèques électroniques,
cartes de paiement, cartes de crédit).
La moitié des différends et fraudes liés à l'usage des cartes de crédit concernent
des transactions on-line, qui ne représentent que 2% des volumes
Et si le e-business vous mettait sur la paille ?
Réfléchissez-y à deux fois avant de vous engager dans l'aventure du e-business
En matière de e-business, ou commerce électronique, il est difficile de distinguer
la réalité des mirages.
Partout, ce ne sont qu'articles sur ses avantages potentiels et sur comment «
tout le monde s'y met ».
Mais, en réalité, tout le monde n'est pas en train de sauter dans le train du
e-business. Beaucoup d'éventuels investisseurs se méfient de cette nouvelle manière
de faire des affaires, se demandant s'ils peuvent lutter sur ce nouveau e-marché,
qui évolue et change rapidement.
Ces
Saint-Thomas ont bien raison d'hésiter. D'après le U.S. Department of Commerce,
le commerce électronique représente moins de deux pour cent du chiffre d'affaires
total réalisé en Amérique du Nord.
Le lancement dans l'aventure e-business au mauvais moment, avec de mauvaises
applications et des attentes irréalistes, peut réellement
conduire à la catastrophe
Face à de tels chiffres, difficile de croire les avertissements des
prophètes du e-commerce selon lesquels, faute de se connecter sur-le-champ, la
faillite guette. En réalité, le lancement dans l'aventure e-business au mauvais
moment, avec de mauvaises applications et des attentes irréalistes, peut réellement conduire à la catastrophe.
Une prudente expectative semble être l'attitude la plus sage, car elle permet
de voir comment diverses autres entreprises ont confié au Web leurs diverses fonctions
commerciales.
Le pouvoir du filtrage de paquets
Sans une forme de firewall, le réseau d'une entreprise est grand ouvert à quiconque se connecte au même réseau public. Le filtrage des paquets est une des méthodes les plus courantes pour construire un firewall. Cette technique permet de contrôler le mouvement des paquets IP selon leur contenu. Comme son nom l'indique, le filtrage de paquets filtre les paquets IP en fonction d'un ensemble de règles définies au niveau des routeurs ou de toute unité de capable de router des paquets, comme Windows NT Server. On peut définir des règles de filtrage de paquets pour un ensemble constitué d'adresses de serveur, de protocoles, d'applications, de directions de connexion et de types de messages. Les spécificités de la mise en oeuvre du filtrage dépendent de votre équipement et des fournisseurs. Pour comprendre le filtrage de paquets, il faut connaître les relations entre les couches de protocole TCP/IP. Il faut également comprendre comment le filtrage de paquet dépend des divers protocoles TCP/IP.
Lire l'articlePublier des applications sur le Web avec ICA
De nombreuses entreprises adoptent Windows NT Server 4.0, Terminal Server Edition
et Citrix Metaframe pour déployer leurs applications Windows vers leurs utilisateurs.
Avec les solutions centrées sur le serveur, les entreprises ont découvert qu'elles
pouvaient déployer des applications actuelles complètes vers pratiquement tous
les clients de leur réseau - tout en consommant une bande passante raisonnable
pour cela.
En fait, certaines sociétés préfèrent permettre à leurs employés et clients d'accéder
à leurs applications de coeur de métier en utilisant une connexion Internet existante.
L'architecture ICA de Citrix permet cela. ICA est un standard permettant de fournir
des applications d'entreprise à une grande variété de plates-formes clientes et
de réseaux. Avec ICA, le serveur distingue la logique de l'application de l'interface
utilisateur et n'envoie que l'interface de l'application au client. L'application
tourne entièrement sur le serveur.
Les applications déployées avec ICA consomment jusqu'à 10 fois moins de bande
passante que ce qu'elles réclament normalement - entre 10 et 20 Ko par session
utilisateur environ.Mettre des applications publiées à disposition des bonnes
personnes sans pour autant ouvrir des brèches béantes dans votre réseau est une
tâche essentielle et stratégique. Pour cela, vous devez comprendre comment offrir
les applications à des clients légers Windows NT à travers un firewall, mais vous
devez également savoir comment préserver un haut niveau de sécurité.
En tant qu'ingénieur réseau, je suis nerveux dès que l'on me parle d'ouvrir quelque
port que ce soit d'un firewall. Pour préserver la sécurité de votre réseau, il
faut savoir comment fonctionne ICA, comment fournir des sessions ICA aux clients
à travers différents types de firewalls, et comment configurer votre firewall
et les paramètres ICA pour minimiser le danger.
Construire un help desk avec Netmeeting
La plupart des utilisateurs connaissent NetMeeting pour ses fonctions audio et
vidéo, souvent décevantes compte tenu de la qualité des transmissions sur une
connexion lente. Cependant, NetMeeting offre de nombreuses autres fonctions qui
peuvent s'avérer très pratiques pour votre entreprise.
Microsoft fournit NetMeeting 3.01 comme un outil gratuit permettant de communiquer
sur un réseau avec des images et de la voix en temps réel, l'échange ou l'annotation
de documents sur un tableau blanc, le transfert de fichiers, la discussion basée
sur l'échange de textes (chat), le partage d'applications Windows entre utilisateurs
distants et la connexion distante à d'autres ordinateurs.
Mais ces fonctions exigent des capacités réseau que n'ont pas de nombreuses entreprises.
En revanche, le produit comporte d'autres fonctions moins connues et très utiles,
notamment pour l'assistance aux utilisateurs.
Par exemple, NetMeeting peut simplifier votre vie grâce à l'accès distant et au
partage d'applications qu'il permet, sans devoir acquérir une solution spécifique
payante. NetMeeting est un outil génial pour le personnel de support aux utilisateurs
ou pour que des employés situés dans des bureaux distants puissent collaborer
sur un projet.
Un bref survol de NetMeeting permet de comprendre ses fonctions et de voir vous
pouvez vous servir de NetMeeting dans votre LAN comme outils de help desk.
Optimiser NT et IIS pour les pages ASP
Les pages actives ASP sont utilisées par de nombreuses entreprises, d'Internet aux intranets d'entreprise et de nombreux administrateurs système choisissent Windows NT Server et Internet Information Server pour les faire tourner. Cependant, Windows NT et IIS doivent être optimisés pour offrir de bonnes performances.
Si vous voulez tirer le meilleur des applications ASP (Active Server Pages), vous
rencontrerez le succès en configurant Windows NT Server pour en faire une plate-forme
efficace pour Internet Information Server (IIS) et en faisant quelques modifications
simples mais essentielles à la configuration d'IIS afin qu'il aide vos serveurs
à fonctionner de façon optimale.
Souvenez-vous qu'il vous faut tester vos applications et optimiser l'environnement
de votre serveur à mesure que vous faites les changements. Faites une check-list
des paramètres de vos serveurs afin d'être sûr que vous avez configuré chaque
serveur correctement. Automatisez l'installation de vos serveurs autant que vous
le pouvez pour configurer les serveurs rapidement et sans risque d'erreur.
Si tous vos serveurs ont la même configuration matérielle, vous pouvez envisager
d'utiliser Norton Ghost, ou tout autre utilitaire équivalent de réplication automatique,
pour installer vos nouveaux serveurs. Si vous utilisez un utilitaire pour répliquer
les serveurs, assurez-vous que l'utilitaire vous permet de créer un SID pour chaque
serveur.
En outre, testez le processus de réplication sur un seul système avant de créer
plusieurs serveurs. Personne ne veut répliquer un système dont les applications
sont mal paramétrées. Il est possible également que vous rencontriez des problèmes
avec la métabase d'IIS sur les systèmes répliqués si le SID change. Si de tels
problèmes devaient survenir, vous pourriez devoir réinstaller IIS sur la machine
concernée.
Gérer la charge des serveurs Web
Au fur et à mesure du développement du commerce électronique, les entreprises
sont de plus en plus nombreuses à compter sur leurs sites Web pour communiquer
avec les clients. Un site Web très performant, délivrant rapidement et en toute
fiabilité du contenu, accroît sa clientèle, la fidélise et joue un rôle crucial
pour un commerce électronique prospère et compétitif.
Les clients potentiels ne seront pas enclins à retourner sur un site Web, s'ils
sont frustrés par sa lenteur et se heurtent à des retards importants ou à des
défaillances. Ainsi, dans le cadre de la planification et de la mise en oeuvre
de l'infrastructure Web d'une entreprise, il faut prendre en compte sérieusement
l'amélioration des performances de son site Web.
Il existe plusieurs méthodes pour améliorer les performances du Web : augmenter
la bande passante Internet, utiliser un équipement de réseau rapide, concevoir
des applications Web efficaces, optimiser et mettre à niveau les logiciels et
les matériels des serveurs Web, et utiliser une technologie de Web-caching.
Il est également possible d'améliorer les performances d'un site Web en ajoutant
des serveurs Web et des sites et en mettant en miroir le contenu entre tous les
serveurs et les sites. Cette méthode permet de partager la charge globale entre
les serveurs et les sites et de réduire le retard d'exécution des informations,
occasionné par le traitement interne des requêtes des clients d'un serveur.
Elle permet, en outre, de conserver des serveurs existants plutôt que de les éliminer
pour faire de la place à de nouveaux serveurs.
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger
un seul serveur avec le trafic du Web, alors que d'autres restent inactifs. Pour
équilibrer la charge entre les serveurs Web, on fait traditionnellement appel
à la fonction " à tour de rôle " du DNS qui permet de distribuer équitablement
les adresses IP des serveurs Web entre les clients ; ainsi, les serveurs Web sont
tous accessibles à égalité.
Mais ce mécanisme ne permet pas d'équilibrer la charge dans un environnement où
les serveurs Web ont différentes capacités matérielles et logicielles. Par exemple,
un système Windows 2000 Server avec deux processeurs Pentium III à 450 MHz et
2 Go de mémoire devrait traiter plus de charge dans un environnement à équilibrage
de charge qu'un système Windows NT Server avec un processeur Pentium II à 300
MHz et 256 Mo de mémoire.
Or la fonction " à tour de rôle " de DNS traite ces deux systèmes à égalité ;
elle ignore la disponibilité d'un serveur Web, parce qu'elle ne détecte pas si
le serveur est en marche ou arrêté.
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger
un seul serveur avec le trafic du Web, alors que d'autres restent inactifsRécemment,
des éditeurs indépendants ont développé des load balancers ou équilibreurs de
charge, c'est-à -dire des produits permettant d'équilibrer la charge uniformément
entre plusieurs serveurs et garantissant en outre la tolérance aux pannes des
serveurs Web en redirigeant le trafic et les clients vers un autre serveur ou
site en cas de défaillance.
Ainsi, les clients subissent moins de retards et de pannes. Les équilibreurs de
charge peuvent s'utiliser dans des scénarios monosite ou multisite Web. Qu'est-ce
qu'un équilibreur de charge, comment fonctionne-t-il ? Autant de questions importantes
à prendre en considération avant de faire son choix.
Les performances d’Exchange 2000
Les caractéristiques de performances de Microsoft Exchange Server 5.5 sont bien
connues. En 1996, Exchange Server 4.0 a posé ses principes de base : atteindre
des performances optimales grâce à la distribution des fichiers et depuis, pas
grand-chose n'a changé. Microsoft a bien étendu la capacité de l'Information Store
(IS) jusqu'à la limite théorique de 16 To, mais le serveur de messagerie conserve
ses caractéristiques essentielles.
Dans Exchange Server, les points névralgiques, c'est-à -dire les fichiers générant
la plus lourde charge d'E/S, sont les bases de données de l'IS et du Directory
Store, leurs journaux de transactions, la copie sur disques de Windows NT et le
répertoire de travail MTA (Message Transfer Agent).
Exchange 2000 Server est d'un tout autre acabit. Le nouveau serveur de messagerie
bénéficie des améliorations suivantes :
* L'architecture de l'IS a nettement évolué, passant du simple partitionnement
de bases de données privées et publiques à un point où elle permet, théoriquement,
d'exécuter jusqu'à 90 bases de données sur un seul serveur.
* Microsoft IIS (Internet Information Server) traite tous les accès de protocoles
pour SMTP, IMAP4 (Internet Message Access Protocol), HTTP, NNTP (Network News
Transfer Protocol) et POP3, et joue donc un rôle plus important pour Exchange
2000 que pour les précédentes versions d'Exchange Server.
* Une nouvelle base de données déroulante peut contenir le contenu Internet natif.
* Active Directory (AD) de Windows 2000 remplace le Directory Store.
* Un nouveau moteur de routage et de mise en file d'attente, basé sur SMTP, remplace
l'ancien MTA basé sur X.400.
Ces améliorations font partie d'une solution customisable que les solutions tierces
étendront vraisemblablement pour doter Exchange 2000 de fonctions telles que antivirus,
fax, workflow, gestion de documents et autres fonctions qui ne font pas partie
du serveur de base.
Exchange 2000 apporte d'importants changements architecturaux affectant considérablement
les performances. Les concepteurs de systèmes vont devoir à présent se poser une
question cruciale : comment optimiser au maximum ces nouvelles fonctions en termes
de configurations systèmes et matériels.
Pour y répondre, commençons par examiner le partitionnement de l'IS d'Exchange
2000.Exchange 2000 apporte d'importants changements architecturaux affectant considérablement
les performances
SSL et la cryptographie
Historiquement, SSL est un protocole mis au point par Netscape pour la sécurisation des communications sur le Web. Tous les acteurs du marché ont accepté ce protocole et le supportent, en attendant l'arrivée d'un standard international. Ce standard appelé TLS (Transport Layer Security), basé sur SSL, est mis au point par le l'IETF (Internet Engineering Task Force) et a été publié il y a peu de temps (TLS 1.0). Tous les éditeurs significatifs supportent ou ont annoncé leur intention de supporter TLS 1.0.Afin de comprendre ce qu'est SSL, il est indispensable de maîtriser les concepts de cryptographie qui en constituent les fondations.
Lire l'articleSybase : une stratégie d’entreprise
Fondée en 1984, la société Sybase s'est rapidement fait connaître en tant qu'éditeur
de SGBDR. Les performances impressionnantes, la simplicité de mise en oeuvre et
la stabilité de SQLServer sont largement reconnues sur le marché. Sybase a acquis
une image de société à la pointe de la technologie grâce notamment à l'introduction
des procédures stockées et des triggers, aujourd'hui supportés par tous les grands
éditeurs de SGBD.
avec une simple station Sun, sans le moindre incident d'exploitation pendant des
mois (en ne redémarrant le serveur qu'une ou deux fois par an pour des mises à
jour du système d'exploitation).
Ce niveau de performance et de stabilité a permis à Sybase de conquérir rapidement
le marché bancaire et celui de l'assurance - les banques de Wall Street ont par
exemple presque toutes choisi ce SGBDR.
Après dix ans de croissance et de succès, Sybase a connu des revers et de sérieuses
difficultés pendant plusieurs années. Les difficultés n'étaient pas que financières
et les incidents de migration vers les nouvelles releases de Sybase se sont succédés.
Pendant cette période délicate la société a multiplié les nouveaux produits et
acquisitions de sociétés, sans réellement réussir à redresser la situation...
jusqu'à l'année dernière. Il faut remarquer que même au plus fort de la tempête
les clients traditionnels de Sybase n'ont pas abandonné et sont restés fidèles,
donnant ainsi au marché un signe clair de la confiance à long terme qu'ils avaient
dans la société et dans les produits.
A la fin de 1998, Sybase a effectué un redéploiement stratégique de ses produits
et profondément changé son approche du marché.
Ce bouleversement a été un véritable succès pour la société d'Emeryville. Sybase
a renoué avec les bénéfices en 1999 et fait cette année là un chiffre d'affaires
record de 872 M$. Après la pluie, le beau temps…
A la fin de 1998, Sybase a effectué un redéploiement stratégique de ses produits
et profondément changé son approche du marchéSybase est à présent restructuré
en quatre divisions : Internet Application Division (IAD), Information Anywhere
(I-Anywhere, anciennement MEC, Mobile Embedded Computing), Business Intelligence
(BI) et Enterprise Solution Division (ESD). Si cette dernière division (qui inclut
le traditionnel moteur de base de données) reste un pilier de la stratégie de
Sybase, l'évolution de la société vers le développement de solutions pour la Net-Economie
place la division IAD dans une position stratégique.
10 trucs pour récupérer votre espace disques
La plupart des nouveaux systèmes Windows NT sont dotés de quantités prodigieuses d’espace disque local ; mais tout le monde n’a pas la chance d’utiliser un de ces monstres. Beaucoup d’entre nous gèrent des systèmes sur lesquels l’espace disque est un bien précieux. Ce mois-ci je vous fais part de quelques astuces pour récupérer l’espace disque dur.
Lire l'articleOptimiser les sous-systèmes disques
Des performances ! Tout le monde veut que les serveurs et les stations de travail NT tournent le plus vite possible. Or l’optimisation d’un sous-système disque est importante pour améliorer les performances globales d’une solution NT.Cet article décrit comment obtenir des performances maximales des ressources supplémentaires ajoutées lors de la mise en œuvre de sous-systèmes disques et de grappes RAID supplémentaires, sans tenir compte des mises au point matérielles spécifiques à tel ou tel constructeur. Pour optimiser rapidement le sous-système disque (RAID matériel ou logiciel), on peut faire appel à des outils intégrés de Windows NT ou à un freeware. Pour réaliser cette tâche, il importe de comprendre les caractéristiques individuelles de performances des disques ou de la technologie RAID, selon le choix que vous avez fait, et les charges de travail de votre sous-système disque existant. Ces informations vous permettront d’équilibrer les charges de votre sous-système disque et d’optimiser la taille des unités d’allocation des disques. Enfin, comme l’accroissement des performances peut varier en fonction de l’environnement informatique, j’expliquerai comment j’ai optimisé et testé mon sous-système disques.
Lire l'articleOptimiser les performances de NTFS
Système de fichier moderne et fiable, NTFS peut être amélioré grâce au tuning et mieux adapté aux besoins propres à chaque entreprise. Cet article décrit des mesures pour évaluer et optimiser les performances des volumes NTFS.En 1993, Microsoft a lancé Windows NT 3.1 et, avec lui, un nouveau système de fichier FAT conçu pour améliorer les possibilités du nouvel OS. Conçu à l’origine par Gary Kumura et Tom Miller, membres de l’équipe de développement originale de NT, NTFS s’appuie sur la sécurité de NT pour améliorer les caractéristiques d’efficacité et de récupération de FAT.
Ces fonctions font de NTFS le système de fichier de prédilection pour les disques de grands volumes des serveurs de réseau. On trouve toujours le système FAT sur les disques de nombreux systèmes qui en ont besoin (par exemple les partitions multi OS ou les serveurs NT basés sur RISC) ; mais les limites de ce système en ont fait un canard boiteux dans l’univers NT moderne.
Si vous voulez satisfaire aux impératifs de sécurité, de performances et de capacité propres à la plupart des organisations, NTFS est le seul choix possible.NTFS est un système de fichier robuste, autocorrectif, qui offre plusieurs fonctions personnalisables ayant une incidence sur son fonctionnement dans un environnement donné.
Certains paramètres sont généraux et d’autres spécifiques à certains volumes NTFS et un certain nombre peuvent se contrôler et s’optimiser. En examinant les besoins de stockage spécifiques à un système et en adaptant ensuite les volumes NT en conséquence, il est possible d’augmenter significativement les performances de disques des systèmes. Cet article décrit plusieurs méthodes pour évaluer et augmenter les performances de NTFS.