> iTPro.fr
Administrer tous les browsers Web de l’entreprise avec IEAK

Administrer tous les browsers Web de l’entreprise avec IEAK

La modification d'un tout petit paramètre sur le PC de tous vos utilisateurs peut simplifier l'administration quotidienne, mais la taille du parc machine de votre entreprise et le travail qui s'empile sur votre bureau risquent fort de ne pas vous permettre de procéder à  ce petit changement. Une fonction peu connue d'Internet Explorer (IE), baptisée configuration automatique, peut résoudre ce problème et contribuer à  faire baisser le coût global de possession (TCO). Les OS modernes ont atteint un niveau de complexité parfois difficile à  gérer et les administrateurs doivent souvent évaluer les modifications d'infrastructure au cas par cas.
Malheureusement, il leur faut bien faire le lien entre les changements logiques et le coût de leur mise en oeuvre.
Parfois, il suffit d'une petite modification sur tous les ordinateurs de la société pour améliorer l'administration quotidienne, mais intervenir sur tous les postes de travail est souvent impossible. Avec la configuration automatique du kit d'administration de Microsoft Internet Explorer (IEAK pour Internet Explorer Administration Kit), peut résoudre ce problème et contribuer à  faire baisser le coût global de possession (TCO). Cette fonction permet, en quelques clics de souris et frappes de touches sur une machine, de modifier les paramètres de l'application sur les milliers d'ordinateurs de votre organisation.

Lire l'article
SQL Server 2000 : Le modèle OIM

SQL Server 2000 : Le modèle OIM

Un groupe d'éditeurs et d'entreprises utilisatrices a formalisé les types de métadonnées pour les entrepôts de données. C'est devenu l'OIM (Open Information Model) Avant les efforts de normalisation de Microsoft, les éditeurs et la communauté informatique ne parvenaient guère à  se mettre d'accord sur le type de métadonnées qu'un entrepôt de données devait contenir.
Par la suite, Microsoft a entrepris de réunir les principaux éditeurs et les entreprises utilisatrices pour déterminer ces types de métadonnées. A l'instar du modèle objet pour une application, le modèle d'information pour un référentiel définit le genre de métadonnées stockées dans l'entrepôt de données, et la manière dont ces données sont organisées.

Ces efforts ont conduit à  la définition de l'OIM (Open Information Model). Celui-ci contient les définitions d'approximativement 300 types d'objets et des relations entre ces types d'objets. La documentation de ces types représente une tâche laborieuse ; le groupe a pour mission de définir et de documenter clairement chaque type ainsi que ses caractéristiques et relations nécessaires.
Etant donné que le modèle d'information définit les métadonnées en termes de types d'objets et de relations, la recherche d'une technologie de modélisation d'objets appropriée est la solution évidente. Le groupe a choisi UML (Unified Modeling Language) pour documenter et publier le modèle d'information. Le standard OIM constitue le langage commun pour décrire les informations contenues dans un entrepôt de données.

En juillet 1999, Microsoft a transféré la propriété du standard OIM à  la MDC (Meta Data Coalition), un organisme indépendant qui se consacre à  la création de normes communes facilitant l'échange d'informations entre systèmes (métadonnées). Au fur et à  mesure que la MDC va faire évoluer le modèle, elle va encourager et aider les autres éditeurs à  prendre en charge le standard OIM au sein de leurs outils respectifs. La MDC publie les formats XML (Extensible Markup Language) comme méthode d'échange de données entre différents outils utilisant le standard OIM. Ce dernier limite la complexité de l'extraction et de l'insertion des données de/dans Microsoft Repository et les outils d'autres éditeurs.

La version actuellement validée du standard OIM (initialement soumise par Microsoft et ses éditeurs partenaires) est la 1.0 ; une proposition de version 1.1 a été soumise en novembre 1999, et devrait en toute logique être validée en 2000. Les exemples et descriptions présentés dans le présent article s'appuient sur la version 1.1. Ces exemples nécessitent la version 3 de Microsoft Repository, disponible avec SQL Server 2000. La version 2 de Repository ne supporte pas les collections ni les propriétés héritées, que le standard OIM MDC utilise intensivement.
Le standard OIM couvre de nombreux domaines, dont :
· L'analyse et la conception d'UML, les extensions UML, les éléments génériques, les types de données communs et la modélisation entités-relations
· Objets et composants : description des composants
· Base de données et entrepôts de données : schémas de bases de données relationnelles, transformations de données, schémas OLAP, schémas de bases de données orientés enregistrements, schémas XML et définitions des rapports
· Ingénierie de processus de gestion : objectifs commerciaux, règles et processus, éléments organisationnels.
· Gestion de la connaissance : descriptions des connaissances et définitions sémantiques

D'un point de vue data warehousing, les schémas de bases de données relationnelles, les transformations de données et les modèles de schémas OLAP sont les plus appropriés. On peut télécharger chaque modèle en tant que fichier .mdl depuis le site Web de la MDC, puis utiliser un outil de conception comme Visual Modeler ou Rational Rose pour le visualiser.
Chaque objet figurant dans un référentiel peut avoir trois propriétés : un nom (255 caractères au maximum), une courte description (255 caractères au maximum) et des commentaires (de longueur pour ainsi dire illimitée). Ces zones, qui sont la source d'une grand

Lire l'article
Mettez un tigre dans votre firewall

Mettez un tigre dans votre firewall

Indispensables pour sécuriser un réseau connecté à  l'Internet, les firewalls ne suffisent plus pour garantir une protection suffisante. Ce sont en effet des systèmes statiques imposant un ensemble particulier de règles et permettant, par conséquent, à  des pirates d'utiliser des paquets valides pour attaquer un réseau et en compromettre la sécurité. Pour une protection complète, surtout de Windows NT et du protocole IP, il vous faut plus qu'un simple firewall. Pour situer les problèmes potentiels, avant que des hackers (les intrus qui pénètrent les systèmes avec des intentions généralement malveillantes) ne les exploitent à  l'intérieur ou à  l'extérieur de votre réseau, vous avez le choix entre plusieurs outils de sécurité, tels que les scanners de ports, tests de vulnérabilité, analyseurs de journaux et autres détecteurs d'intrusion.

Lire l'article
Commerce électronique : le marché aux puces

Commerce électronique : le marché aux puces

Beaucoup d'entreprises considèrent toujours les cartes à  puce comme une technologie futuriste. C'est peut-être le cas de la vôtre. Pour Windows 2000, en revanche, elles sont d'ores et déjà  une réalité bien actuelle, et bénéficieront donc d'un support extrêmement intégré. Cet article présente les cartes à  puce, en expliquant leur importance et leur fonctionnement et comment commencer à  les utiliser dans Windows 2000. Nous détaillerons plus particulièrement la configuration d'une connexion avec la carte à  puce GemSAFE de Gemplus et le lecteur GCR410. Et comme cette technologie n'est pas parfaite non plus, nous verronségalement un certain nombre de risques qui lui sont inhérents.
Les cartes à  puce permettent de créer une infrastructure à  clé publique (PKI pour public key infrastructure), laquelle facilite, à  son tour, l'e-commerce. Une PKI permet d'atteindre un niveau de confiance pour les transactions électroniques, au moins égal à  celui de l'univers du papier et de la signature manuscrite. Une PKI peut garantir l'intégrité des messages, la confidentialité et le non-reniement.
Vous ne pouvez pas nier avoir envoyé un message, s'il est signé de votre certificat numérique, puisque votre clé publique vérifie votre signature.
Si une clé publique vérifie avec succès une signature, la seule personne qui a pu envoyer le message est celle qui détient la clé publique. La pierre angulaire de la sécurité d'une PKI est que la clé privée associée à  un certificat numérique doit rester privée. Sinon, un hacker peut utiliser une clé privée pour contrefaire facilement les transactions.

Les cartes à  puce permettent de créer une infrastructure à  clé publique (PKI), laquelle facilite, à  son tour, l'e-commerce

Lire l'article
Intégrité référentielle avec SQL Server

Intégrité référentielle avec SQL Server

par Kalen Delaney
La maintenance des relations logiques entre les tables est un élément essentiel de la gestion de base de données. Voici comment utiliser les nouvelles méthodes d'application de l'intégrité référentielle dans SQL Server 2000.Le maintien de relations solides est primordial.
La création et le maintien de relations logiques entre les tables constituent une partie fondamentale du travail avec des bases de données relationnelles. La plupart des bases de données doivent entretenir certaines relations, sous peine de corruption logique des données. Lorsque de telles relations existent, on dit que ces données disposent d'une intégrité référentielle. L'une des tables est la table référencée et l'autre, la table de référence ; les valeurs de la table de référence doivent correspondre aux valeurs de la table référencée. (Certaines utilisateurs qualifient cette relation de tables parent/enfant. Toutefois, cette terminologie implique une hiérarchie évitée par le modèle relationnel). SQL Server peut mettre en oeuvre automatiquement l'intégrité référentielle à  travers des contraintes de clés étrangères que vous aurez préalablement définies. Cette fonction est appelée intégrité référentielle déclarative (en anglais "Declarative Referential Integrity" ou DRI) en raison de sa présence dans la définition de la table. On peut également utiliser d'autres fonctions, comme les déclencheurs, pour imposer des relations ; on parle alors d'intégrité référentielle de procédure. Dans cet article, je présente comment gérer l'intégrité référentielle dans SQL Server, en accordant une attention particulière aux nouvelles fonctions intéressantes de SQL Server 2000.
SQL Server 7.0 et les versions précédentes disposaient d'une seule méthode pour traiter les tentatives de violation des contraintes de clés étrangères. Si un utilisateur tente de modifier les données d'une table d'une manière qui pourrait violer l'intégrité référentielle (telle qu'elle est définie dans les clés étrangères), SQL Server empêche cette modification et renvoie un message d'erreur. SQL Server 2000 dispose d'une nouvelle fonction cascade pouvant traiter les violations de l'intégrité référentielle d'une autre manière, comme je vais vous le démontrer.
Pour commencer, analysons rapidement un exemple permettant de clarifier ce que représente l'intégrité référentielle. La base de données Northwind dispose d'une table appelée Orders, et d'une autre, appelée Order Details. Dans la table Orders, la colonne OrderId représente la clé primaire identifiant chaque commande de manière unique. La table Order Details possède également une colonne OrderId mais, dans cette table, la colonne est une clé étrangère qui doit correspondre à  un OrderId existant de la table Orders. Dans cet exemple, la table Orders est la table référencée et la table Order Details est la table de référence. Si on définit une contrainte de clé étrangère pour mettre en oeuvre la relation entre les tables Orders et les Order Details, SQL Server vérifie que la modification de l'une de ces tables ne viole pas la relation. Si par exemple on essaye de supprimer un enregistrement de la table Orders alors que l'OrderId de cet enregistrement existe dans la table Order Details, la suppression violera la contrainte d'intégrité référentielle. Tenter de mettre à  jour une colonne OrderId de la table Orders lorsque la valeur d'origine, et non la nouvelle valeur, existe dans les Order Details, constitue également une violation. En outre, SQL Server doit vérifier chaque insertion dans Order Details pour s'assurer que le nouvel OrderId existe dans la table Orders, et doit vérifier toutes les mises à  jour de la colonne OrderId dans Order Details.

Lire l'article
Partager les connexions Internet

Partager les connexions Internet

Le routage IP du LAN vers le WAN est un thème récurrent depuis plusieurs années.
Cet article fait le point sur les aptitudes de Windows NT à  router le trafic IP. En1992, j'ai décidé d'établir mon entreprise sur le Web. Je me suis donc adressé à  un ISP pour me procurer 256 adresses IP. L'entreprise devait héberger ses propres serveurs Web et de messagerie et il fallait par conséquent des connexions Internet 24 x 7. Au lieu d'acheter un routeur LAN-WAN de Cisco Systems ou autres constructeurs, je trouvai l'expérience beaucoup plus enrichissante de construire moi-même un routeur.

Ce premier routeur devait servir à  traiter OS/2 2.0 et TCP/IP pour OS/2. Dès que Windows NT se mit à  supporter le routage IP, je remplaçai OS/2 par NT. Puis je rédigeai une série d'articles pour Windows 2000 Magazine pour expliquer comment faire d'un système NT un routeur LAN-WAN.

es articles continuent à  générer une importante quantité de courrier, décrivant tous le même scénario et posant constamment la même question : J'ai un ordinateur chez moi connecté à  Internet par une liaison ADSL/modem câble/RNIS.

J'ai aussi plusieurs autres machines chez moi.

Comment configurer mon PC connecté à  Internet pour partager sa liaison Internet avec les autres machines ?

Après la publication des premiers articles, j'ai revu la question deux fois - d'abord lorsque Microsoft a sorti le code de routage amélioré RRAS (dit Steelhead), puis pour la sortie de Proxy Server 2.0. RRAS n'était pas la bonne réponse pour les télétravailleurs, car il exigeait que chaque machine ait une adresse IP fournie par l'ISP. Or, la création d'adresses aléatoires ne fonctionnait pas pour des machines domestiques. Proxy Server contournait le problème mais en posait un autre en raison des frais occasionnés - dans les 1000 dollars.

Avec Windows 98 SE ou Windows 2000 Professional, il suffit de quelques clics de souris et de rebooter pour profiter facilement du routage

Mais avec Windows 98 Second Edition (Win98SE) ou Windows 2000 Professional, il suffit de quelques clics de souris et de rebooter les PC pour profiter facilement du routage. Win98SE devait être disponible au moment où vous lirez cet article et Windows 2000 Pro et Windows 2000 Server sortiront probablement très bientôt. Malheureusement Microsoft n'offrira pas Win98SE à  tout le monde - comme les versions OSR (Version de service OEM) de Win95, il ne sera disponible qu'avec l'achat d'un nouvel ordinateur. Mais si vous pouvez attendre jusqu'à  la sortie de Windows 2000 ou si vous achetez un nouveau PC, le routage facile c'est pour bientôt.

Lire l'article
Contrôlez vos services d’annuaire avec un proxy LDAP

Contrôlez vos services d’annuaire avec un proxy LDAP

Ces dernières années les services d'annuaire ont vu leur cote monter dans les entreprises. Le succès grandissant de Novell avec Novell Directory Services (NDS) et le lancement par Microsoft d'Active Directory (AD) ont été des raisons suffisantes pour décider un grand nombre d'entreprises à  explorer le potentiel des services d'annuaire dans leurs environnements. L'interface proxy LDAP (Lightweight Directory Access Protocol) séduit les entreprises en leur offrant un large éventail d'informations d'identité grâce à  une réplique virtuelle, sans la consommation de CPU impliquée par une duplication des données et la propagation des changements à  travers un réseau.

En 1995 LDAPv2 a inauguré un protocole d'accès d'annuaire standard et, en 1997, LDAPv3 a étendu le protocole en lui ajoutant plusieurs fonctions.

Pour tout savoir sur LDAP, voir les RFC (Request for Comments) 1 777, pour LDAPv2, et 2 251, pour LDAPv3, de l'IETF à  l'adresse http://www.ietf.org/rfc.html

Les éditeurs ont immédiatement commencé à  développer des produits LDAP. Il faut cependant examiner soigneusement les déclarations des éditeurs affirmant la compatibilité de leurs produits avec LDAP. Pour être LDAP, un produit doit pouvoir consulter des données d'applications via LDAP.

Par exemple, Microsoft a permis la consultation d'Exchange Server au moyen de LDAP. Dans d'autres produits compatibles LDAP, les éditeurs s'appuient sur un annuaire LDAP disponible pour stocker des données sur les utilisateurs, leurs profils et des informations de configuration.

Par exemple, les produits SiteMinder de Netegrity et FireWall-1 de Check Point Software Technologies utilisent soit des services d'annuaires propriétaires, soit un service d'annuaire d'éditeur tiers, comme Netscape Directory Server, pour stocker des informations sur les utilisateurs et les stratégies. Les éditeurs n'ont aucun mal à  fournir la fonction d'interrogation LDAP pour rendre leurs produits compatibles.
Pour un produit maintenant une base de données d'utilisateurs ou un annuaire interne, il ne faut que quelques efforts de développement pour permettre la consultation de la base de données ou de l'annuaire via LDAP. En revanche l'utilisation d'annuaires LDAP est plus difficile car les produits LDAP comptent sur une entreprise pour avoir un annuaire supportant les besoins spécifiques des applications.
La fonctionnalité LDAP rend aussi plus difficile le support entre produits.
Lorsque AD aura acquis une position de force et offrira un niveau de service garanti et des informations sur lesquelles les autres applications pourront s'appuyer, on assistera probablement à  une forte reprise de l'activité LDAP.

Actuellement, trois éditeurs proposent des serveurs proxy LDAP autonomes : Innosoft International, avec ILPS (Innosoft LDAP Proxy Server), MaXware Benelux avec MLPS (MaXware LDAP Proxy Server) et NEXOR avec DBA (Directory Boundary Agent). Cet article porte plus spécialement sur une mise en oeuvre spécifique de l'annuaire virtuel (également baptisée broker ou courtier d'annuaire) considérée comme un service intermédiaire (proxy) LDAP.
La médiation LDAP peut aider à  garder le contrôle lorsqu'il s'agit d'accorder l'accès à  plusieurs ressources compatibles LDAP, en l'absence de solution de métaannuaire intégrale ou d'une maîtrise totale des ressources compatibles LDAP, dont il faut autoriser l'accès.
Nous allons examiner les services proxy LDAP liés aux services d'annuaire, un certain nombre de serveurs proxy LDAP disponibles, ainsi que les limites et les avantages de l'utilisation d'un proxy LDAP. Je donnerai également quelques conseils sur l'opportunité d'une implémentation de services proxy.

Un proxy LDAP est un médiateur entre un client LDAP et une ou plusieurs ressources compatibles LDAP, généralement des serveurs

Lire l'article
Comment se faire payer on-line

Comment se faire payer on-line

Les options de paiement électronique se multiplient : faites votre choix avec précaution. Que votre entreprise soit traditionnelle ou un commerce on-line, les clients doivent vous payer vos produits et services. Une entreprise traditionnelle se sentira probablement plus à  l'aise en recevant des espèces et des chèques.

Toutefois, bien que l'argent liquide soit en principe une valeur sûre, un chèque est moins sûr.

En effet, même après avoir réceptionné un chèque, on ne peut pas encore être certain de l'encaisser. Ce n'est que quelques jours plus tard, lorsque la banque encaissera le chèque que l'on a déposé que l'on peut être sûr d'avoir été payé.

Le paiement par le biais de certaines transactions financières électroniques offre plus de garanties.

De plus, pour les entreprises on-line, être capable de gérer les modes de paiement électroniques est une nécessité Les banques préfèrent les transactions électroniques car elles sont plus efficaces et moins chères à  gérer. Avec l'EDI, par exemple, une entreprise cliente peut envoyer un ordre de paiement à  sa banque afin que celle-ci transfère des fonds à  la banque du fournisseur électroniquement. La banque réceptrice notifie le fournisseur de la date et du montant du transfert à  l'avance, de sorte que l'entreprise puisse organiser et planifier sa trésorerie.

Cependant, nous devons désormais faire face à  un nouveau défi : les informations concernant les ordres de paiement et de versement circulent sur l'Internet.
Quelles sont les possibilités de paiement que les consommateurs et les entreprises peuvent utiliser sur le Web, et quels sont leurs degrés de fiabilité ?
Les banques prévoient deux types de paiement pour les transactions de commerce électronique : des mécanismes de paiement en temps réel (porte-monnaie électroniques, cartes à  puce) et des mécanismes de paiement différés (chèques électroniques, cartes de paiement, cartes de crédit).

La moitié des différends et fraudes liés à  l'usage des cartes de crédit concernent des transactions on-line, qui ne représentent que 2% des volumes

Lire l'article
Et si le e-business vous mettait sur la paille ?

Et si le e-business vous mettait sur la paille ?

Réfléchissez-y à  deux fois avant de vous engager dans l'aventure du e-business En matière de e-business, ou commerce électronique, il est difficile de distinguer la réalité des mirages.
Partout, ce ne sont qu'articles sur ses avantages potentiels et sur comment « tout le monde s'y met ».
Mais, en réalité, tout le monde n'est pas en train de sauter dans le train du e-business. Beaucoup d'éventuels investisseurs se méfient de cette nouvelle manière de faire des affaires, se demandant s'ils peuvent lutter sur ce nouveau e-marché, qui évolue et change rapidement.

Ces Saint-Thomas ont bien raison d'hésiter. D'après le U.S. Department of Commerce, le commerce électronique représente moins de deux pour cent du chiffre d'affaires total réalisé en Amérique du Nord.

Le lancement dans l'aventure e-business au mauvais moment, avec de mauvaises applications et des attentes irréalistes, peut réellement conduire à  la catastrophe

Face à  de tels chiffres, difficile de croire les avertissements des prophètes du e-commerce selon lesquels, faute de se connecter sur-le-champ, la faillite guette. En réalité, le lancement dans l'aventure e-business au mauvais moment, avec de mauvaises applications et des attentes irréalistes, peut réellement conduire à  la catastrophe.
Une prudente expectative semble être l'attitude la plus sage, car elle permet de voir comment diverses autres entreprises ont confié au Web leurs diverses fonctions commerciales.

Lire l'article
Le pouvoir du filtrage de paquets

Le pouvoir du filtrage de paquets

Sans une forme de firewall, le réseau d'une entreprise est grand ouvert à  quiconque se connecte au même réseau public. Le filtrage des paquets est une des méthodes les plus courantes pour construire un firewall. Cette technique permet de contrôler le mouvement des paquets IP selon leur contenu. Comme son nom l'indique, le filtrage de paquets filtre les paquets IP en fonction d'un ensemble de règles définies au niveau des routeurs ou de toute unité de capable de router des paquets, comme Windows NT Server. On peut définir des règles de filtrage de paquets pour un ensemble constitué d'adresses de serveur, de protocoles, d'applications, de directions de connexion et de types de messages. Les spécificités de la mise en oeuvre du filtrage dépendent de votre équipement et des fournisseurs. Pour comprendre le filtrage de paquets, il faut connaître les relations entre les couches de protocole TCP/IP. Il faut également comprendre comment le filtrage de paquet dépend des divers protocoles TCP/IP.

Lire l'article
Publier des applications sur le Web avec ICA

Publier des applications sur le Web avec ICA

De nombreuses entreprises adoptent Windows NT Server 4.0, Terminal Server Edition et Citrix Metaframe pour déployer leurs applications Windows vers leurs utilisateurs. Avec les solutions centrées sur le serveur, les entreprises ont découvert qu'elles pouvaient déployer des applications actuelles complètes vers pratiquement tous les clients de leur réseau - tout en consommant une bande passante raisonnable pour cela.
En fait, certaines sociétés préfèrent permettre à  leurs employés et clients d'accéder à  leurs applications de coeur de métier en utilisant une connexion Internet existante. L'architecture ICA de Citrix permet cela. ICA est un standard permettant de fournir des applications d'entreprise à  une grande variété de plates-formes clientes et de réseaux. Avec ICA, le serveur distingue la logique de l'application de l'interface utilisateur et n'envoie que l'interface de l'application au client. L'application tourne entièrement sur le serveur.
Les applications déployées avec ICA consomment jusqu'à  10 fois moins de bande passante que ce qu'elles réclament normalement - entre 10 et 20 Ko par session utilisateur environ.Mettre des applications publiées à  disposition des bonnes personnes sans pour autant ouvrir des brèches béantes dans votre réseau est une tâche essentielle et stratégique. Pour cela, vous devez comprendre comment offrir les applications à  des clients légers Windows NT à  travers un firewall, mais vous devez également savoir comment préserver un haut niveau de sécurité.
En tant qu'ingénieur réseau, je suis nerveux dès que l'on me parle d'ouvrir quelque port que ce soit d'un firewall. Pour préserver la sécurité de votre réseau, il faut savoir comment fonctionne ICA, comment fournir des sessions ICA aux clients à  travers différents types de firewalls, et comment configurer votre firewall et les paramètres ICA pour minimiser le danger.

Lire l'article
Construire un help desk avec Netmeeting

Construire un help desk avec Netmeeting

La plupart des utilisateurs connaissent NetMeeting pour ses fonctions audio et vidéo, souvent décevantes compte tenu de la qualité des transmissions sur une connexion lente. Cependant, NetMeeting offre de nombreuses autres fonctions qui peuvent s'avérer très pratiques pour votre entreprise. Microsoft fournit NetMeeting 3.01 comme un outil gratuit permettant de communiquer sur un réseau avec des images et de la voix en temps réel, l'échange ou l'annotation de documents sur un tableau blanc, le transfert de fichiers, la discussion basée sur l'échange de textes (chat), le partage d'applications Windows entre utilisateurs distants et la connexion distante à  d'autres ordinateurs.
Mais ces fonctions exigent des capacités réseau que n'ont pas de nombreuses entreprises. En revanche, le produit comporte d'autres fonctions moins connues et très utiles, notamment pour l'assistance aux utilisateurs.
Par exemple, NetMeeting peut simplifier votre vie grâce à  l'accès distant et au partage d'applications qu'il permet, sans devoir acquérir une solution spécifique payante. NetMeeting est un outil génial pour le personnel de support aux utilisateurs ou pour que des employés situés dans des bureaux distants puissent collaborer sur un projet.
Un bref survol de NetMeeting permet de comprendre ses fonctions et de voir vous pouvez vous servir de NetMeeting dans votre LAN comme outils de help desk.

Lire l'article
Optimiser NT et IIS pour les pages ASP

Optimiser NT et IIS pour les pages ASP

Les pages actives ASP sont utilisées par de nombreuses entreprises, d'Internet aux intranets d'entreprise et de nombreux administrateurs système choisissent Windows NT Server et Internet Information Server pour les faire tourner. Cependant, Windows NT et IIS doivent être optimisés pour offrir de bonnes performances. Si vous voulez tirer le meilleur des applications ASP (Active Server Pages), vous rencontrerez le succès en configurant Windows NT Server pour en faire une plate-forme efficace pour Internet Information Server (IIS) et en faisant quelques modifications simples mais essentielles à  la configuration d'IIS afin qu'il aide vos serveurs à  fonctionner de façon optimale.

Souvenez-vous qu'il vous faut tester vos applications et optimiser l'environnement de votre serveur à  mesure que vous faites les changements. Faites une check-list des paramètres de vos serveurs afin d'être sûr que vous avez configuré chaque serveur correctement. Automatisez l'installation de vos serveurs autant que vous le pouvez pour configurer les serveurs rapidement et sans risque d'erreur.
Si tous vos serveurs ont la même configuration matérielle, vous pouvez envisager d'utiliser Norton Ghost, ou tout autre utilitaire équivalent de réplication automatique, pour installer vos nouveaux serveurs. Si vous utilisez un utilitaire pour répliquer les serveurs, assurez-vous que l'utilitaire vous permet de créer un SID pour chaque serveur.

En outre, testez le processus de réplication sur un seul système avant de créer plusieurs serveurs. Personne ne veut répliquer un système dont les applications sont mal paramétrées. Il est possible également que vous rencontriez des problèmes avec la métabase d'IIS sur les systèmes répliqués si le SID change. Si de tels problèmes devaient survenir, vous pourriez devoir réinstaller IIS sur la machine concernée.

Lire l'article
Gérer la charge des serveurs Web

Gérer la charge des serveurs Web

Au fur et à  mesure du développement du commerce électronique, les entreprises sont de plus en plus nombreuses à  compter sur leurs sites Web pour communiquer avec les clients. Un site Web très performant, délivrant rapidement et en toute fiabilité du contenu, accroît sa clientèle, la fidélise et joue un rôle crucial pour un commerce électronique prospère et compétitif. Les clients potentiels ne seront pas enclins à  retourner sur un site Web, s'ils sont frustrés par sa lenteur et se heurtent à  des retards importants ou à  des défaillances. Ainsi, dans le cadre de la planification et de la mise en oeuvre de l'infrastructure Web d'une entreprise, il faut prendre en compte sérieusement l'amélioration des performances de son site Web.

Il existe plusieurs méthodes pour améliorer les performances du Web : augmenter la bande passante Internet, utiliser un équipement de réseau rapide, concevoir des applications Web efficaces, optimiser et mettre à  niveau les logiciels et les matériels des serveurs Web, et utiliser une technologie de Web-caching.

Il est également possible d'améliorer les performances d'un site Web en ajoutant des serveurs Web et des sites et en mettant en miroir le contenu entre tous les serveurs et les sites. Cette méthode permet de partager la charge globale entre les serveurs et les sites et de réduire le retard d'exécution des informations, occasionné par le traitement interne des requêtes des clients d'un serveur.
Elle permet, en outre, de conserver des serveurs existants plutôt que de les éliminer pour faire de la place à  de nouveaux serveurs.

Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger un seul serveur avec le trafic du Web, alors que d'autres restent inactifs. Pour équilibrer la charge entre les serveurs Web, on fait traditionnellement appel à  la fonction " à  tour de rôle " du DNS qui permet de distribuer équitablement les adresses IP des serveurs Web entre les clients ; ainsi, les serveurs Web sont tous accessibles à  égalité.

Mais ce mécanisme ne permet pas d'équilibrer la charge dans un environnement où les serveurs Web ont différentes capacités matérielles et logicielles. Par exemple, un système Windows 2000 Server avec deux processeurs Pentium III à  450 MHz et 2 Go de mémoire devrait traiter plus de charge dans un environnement à  équilibrage de charge qu'un système Windows NT Server avec un processeur Pentium II à  300 MHz et 256 Mo de mémoire.

Or la fonction " à  tour de rôle " de DNS traite ces deux systèmes à  égalité ; elle ignore la disponibilité d'un serveur Web, parce qu'elle ne détecte pas si le serveur est en marche ou arrêté.

Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger un seul serveur avec le trafic du Web, alors que d'autres restent inactifsRécemment, des éditeurs indépendants ont développé des load balancers ou équilibreurs de charge, c'est-à -dire des produits permettant d'équilibrer la charge uniformément entre plusieurs serveurs et garantissant en outre la tolérance aux pannes des serveurs Web en redirigeant le trafic et les clients vers un autre serveur ou site en cas de défaillance.

Ainsi, les clients subissent moins de retards et de pannes. Les équilibreurs de charge peuvent s'utiliser dans des scénarios monosite ou multisite Web. Qu'est-ce qu'un équilibreur de charge, comment fonctionne-t-il ? Autant de questions importantes à  prendre en considération avant de faire son choix.

Lire l'article
Les performances d’Exchange 2000

Les performances d’Exchange 2000

Les caractéristiques de performances de Microsoft Exchange Server 5.5 sont bien connues. En 1996, Exchange Server 4.0 a posé ses principes de base : atteindre des performances optimales grâce à  la distribution des fichiers et depuis, pas grand-chose n'a changé. Microsoft a bien étendu la capacité de l'Information Store (IS) jusqu'à  la limite théorique de 16 To, mais le serveur de messagerie conserve ses caractéristiques essentielles. Dans Exchange Server, les points névralgiques, c'est-à -dire les fichiers générant la plus lourde charge d'E/S, sont les bases de données de l'IS et du Directory Store, leurs journaux de transactions, la copie sur disques de Windows NT et le répertoire de travail MTA (Message Transfer Agent).

Exchange 2000 Server est d'un tout autre acabit. Le nouveau serveur de messagerie bénéficie des améliorations suivantes :

* L'architecture de l'IS a nettement évolué, passant du simple partitionnement de bases de données privées et publiques à  un point où elle permet, théoriquement, d'exécuter jusqu'à  90 bases de données sur un seul serveur.

* Microsoft IIS (Internet Information Server) traite tous les accès de protocoles pour SMTP, IMAP4 (Internet Message Access Protocol), HTTP, NNTP (Network News Transfer Protocol) et POP3, et joue donc un rôle plus important pour Exchange 2000 que pour les précédentes versions d'Exchange Server.

* Une nouvelle base de données déroulante peut contenir le contenu Internet natif.

* Active Directory (AD) de Windows 2000 remplace le Directory Store.

* Un nouveau moteur de routage et de mise en file d'attente, basé sur SMTP, remplace l'ancien MTA basé sur X.400.

Ces améliorations font partie d'une solution customisable que les solutions tierces étendront vraisemblablement pour doter Exchange 2000 de fonctions telles que antivirus, fax, workflow, gestion de documents et autres fonctions qui ne font pas partie du serveur de base.
Exchange 2000 apporte d'importants changements architecturaux affectant considérablement les performances. Les concepteurs de systèmes vont devoir à  présent se poser une question cruciale : comment optimiser au maximum ces nouvelles fonctions en termes de configurations systèmes et matériels.

Pour y répondre, commençons par examiner le partitionnement de l'IS d'Exchange 2000.Exchange 2000 apporte d'importants changements architecturaux affectant considérablement les performances

Lire l'article
SSL et la cryptographie

SSL et la cryptographie

Historiquement, SSL est un protocole mis au point par Netscape pour la sécurisation des communications sur le Web. Tous les acteurs du marché ont accepté ce protocole et le supportent, en attendant l'arrivée d'un standard international. Ce standard appelé TLS (Transport Layer Security), basé sur SSL, est mis au point par le l'IETF (Internet Engineering Task Force) et a été publié il y a peu de temps (TLS 1.0). Tous les éditeurs significatifs supportent ou ont annoncé leur intention de supporter TLS 1.0.Afin de comprendre ce qu'est SSL, il est indispensable de maîtriser les concepts de cryptographie qui en constituent les fondations.

Lire l'article
Sybase : une stratégie d’entreprise

Sybase : une stratégie d’entreprise

Fondée en 1984, la société Sybase s'est rapidement fait connaître en tant qu'éditeur de SGBDR. Les performances impressionnantes, la simplicité de mise en oeuvre et la stabilité de SQLServer sont largement reconnues sur le marché. Sybase a acquis une image de société à  la pointe de la technologie grâce notamment à  l'introduction des procédures stockées et des triggers, aujourd'hui supportés par tous les grands éditeurs de SGBD. avec une simple station Sun, sans le moindre incident d'exploitation pendant des mois (en ne redémarrant le serveur qu'une ou deux fois par an pour des mises à  jour du système d'exploitation).

Ce niveau de performance et de stabilité a permis à  Sybase de conquérir rapidement le marché bancaire et celui de l'assurance - les banques de Wall Street ont par exemple presque toutes choisi ce SGBDR.

Après dix ans de croissance et de succès, Sybase a connu des revers et de sérieuses difficultés pendant plusieurs années. Les difficultés n'étaient pas que financières et les incidents de migration vers les nouvelles releases de Sybase se sont succédés.

Pendant cette période délicate la société a multiplié les nouveaux produits et acquisitions de sociétés, sans réellement réussir à  redresser la situation... jusqu'à  l'année dernière. Il faut remarquer que même au plus fort de la tempête les clients traditionnels de Sybase n'ont pas abandonné et sont restés fidèles, donnant ainsi au marché un signe clair de la confiance à  long terme qu'ils avaient dans la société et dans les produits.

A la fin de 1998, Sybase a effectué un redéploiement stratégique de ses produits et profondément changé son approche du marché.

Ce bouleversement a été un véritable succès pour la société d'Emeryville. Sybase a renoué avec les bénéfices en 1999 et fait cette année là  un chiffre d'affaires record de 872 M$. Après la pluie, le beau temps…

A la fin de 1998, Sybase a effectué un redéploiement stratégique de ses produits et profondément changé son approche du marchéSybase est à  présent restructuré en quatre divisions : Internet Application Division (IAD), Information Anywhere (I-Anywhere, anciennement MEC, Mobile Embedded Computing), Business Intelligence (BI) et Enterprise Solution Division (ESD). Si cette dernière division (qui inclut le traditionnel moteur de base de données) reste un pilier de la stratégie de Sybase, l'évolution de la société vers le développement de solutions pour la Net-Economie place la division IAD dans une position stratégique.

Lire l'article
10 trucs pour récupérer votre espace disques

10 trucs pour récupérer votre espace disques

La plupart des nouveaux systèmes Windows NT sont dotés de quantités prodigieuses d’espace disque local ; mais tout le monde n’a pas la chance d’utiliser un de ces monstres. Beaucoup d’entre nous gèrent des systèmes sur lesquels l’espace disque est un bien précieux. Ce mois-ci je vous fais part de quelques astuces pour récupérer l’espace disque dur.

Lire l'article
Optimiser les sous-systèmes disques

Optimiser les sous-systèmes disques

Des performances ! Tout le monde veut que les serveurs et les stations de travail NT tournent le plus vite possible. Or l’optimisation d’un sous-système disque est importante pour améliorer les performances globales d’une solution NT.Cet article décrit comment obtenir des performances maximales des ressources supplémentaires ajoutées lors de la mise en œuvre de sous-systèmes disques et de grappes RAID supplémentaires, sans tenir compte des mises au point matérielles spécifiques à tel ou tel constructeur. Pour optimiser rapidement le sous-système disque (RAID matériel ou logiciel), on peut faire appel à des outils intégrés de Windows NT ou à un freeware. Pour réaliser cette tâche, il importe de comprendre les caractéristiques individuelles de performances des disques ou de la technologie RAID, selon le choix que vous avez fait, et les charges de travail de votre sous-système disque existant. Ces informations vous permettront d’équilibrer les charges de votre sous-système disque et d’optimiser la taille des unités d’allocation des disques. Enfin, comme l’accroissement des performances peut varier en fonction de l’environnement informatique, j’expliquerai comment j’ai optimisé et testé mon sous-système disques.

Lire l'article
Optimiser les performances de NTFS

Optimiser les performances de NTFS

Système de fichier moderne et fiable, NTFS peut être amélioré grâce au tuning et mieux adapté aux besoins propres à chaque entreprise. Cet article décrit des mesures pour évaluer et optimiser les performances des volumes NTFS.En 1993, Microsoft a lancé Windows NT 3.1 et, avec lui, un nouveau système de fichier FAT conçu pour améliorer les possibilités du nouvel OS. Conçu à l’origine par Gary Kumura et Tom Miller, membres de l’équipe de développement originale de NT, NTFS s’appuie sur la sécurité de NT pour améliorer les caractéristiques d’efficacité et de récupération de FAT.
Ces fonctions font de NTFS le système de fichier de prédilection pour les disques de grands volumes des serveurs de réseau. On trouve toujours le système FAT sur les disques de nombreux systèmes qui en ont besoin (par exemple les partitions multi OS ou les serveurs NT basés sur RISC) ; mais les limites de ce système en ont fait un canard boiteux dans l’univers NT moderne.
Si vous voulez satisfaire aux impératifs de sécurité, de performances et de capacité propres à la plupart des organisations, NTFS est le seul choix possible.NTFS est un système de fichier robuste, autocorrectif, qui offre plusieurs fonctions personnalisables ayant une incidence sur son fonctionnement dans un environnement donné.
Certains paramètres sont généraux et d’autres spécifiques à certains volumes NTFS et un certain nombre peuvent se contrôler et s’optimiser. En examinant les besoins de stockage spécifiques à un système et en adaptant ensuite les volumes NT en conséquence, il est possible d’augmenter significativement les performances de disques des systèmes. Cet article décrit plusieurs méthodes pour évaluer et augmenter les performances de NTFS.

Lire l'article