> Windows
Serveurs de terminaux : Microsoft change les règles de licence

Serveurs de terminaux : Microsoft change les règles de licence

Juste quand vous pensiez avoir enfin compris les règles de licences de Windows NT Server 4.0 Terminal Server Edition, Microsoft décide de les changer pour Windows 2000. Les règles, les types de licences disponibles, les prix et les étapes requises pour les licences des services de terminaux diffèrent sensiblement entre Windows NT 4.0 et Windows 2000. Cet article étudie le fonctionnement des licences des services de terminaux intégrés de Windows 2000, détaille comment gérer les licences et explique la logique de ces modifications.

Lire l'article
Naviguer dans la résolution de noms ( Partie 1 )

Naviguer dans la résolution de noms ( Partie 1 )

La question le plus souvent posée aux consultants réseau est ce qui, dans la mise en réseau de Windows, pose le plus de problèmes. La réponse est sans détour : la résolution des noms, avec son indissociable cortège de maux - mauvaises performances, incapacité des clients ou des applications à  se connecter aux serveurs, listes d'exploration incomplètes et obscurs messages d'erreur aux problèmes de résolution des noms d'ordinateurs en adresses IP. Pour vous aider à  venir à  bout de ces maladies, cet article propose une initiation à  la résolution des noms, explique certaines causes, peu connues, des problèmes de résolution de noms et règle un malentendu courant sur le sujet.

Lire l'article
Bâtir un site Web à  haute disponibilité avec MSCS et IIS

Bâtir un site Web à  haute disponibilité avec MSCS et IIS

Microsoft Cluster Server est un service précieux, mais méconnu, de Windows NT Server 4.0 édition Enterprise, qui augmente le temps de production grâce à  une disponibilité élevée. Dans cet article, nous détaillerons les fonctions de base de MSCS et son utilisation avec Internet Information Server pour configurer un site Web à  haute disponibilité.

Lire l'article
Construire un help desk avec Netmeeting

Construire un help desk avec Netmeeting

La plupart des utilisateurs connaissent NetMeeting pour ses fonctions audio et vidéo, souvent décevantes compte tenu de la qualité des transmissions sur une connexion lente. Cependant, NetMeeting offre de nombreuses autres fonctions qui peuvent s'avérer très pratiques pour votre entreprise. Microsoft fournit NetMeeting 3.01 comme un outil gratuit permettant de communiquer sur un réseau avec des images et de la voix en temps réel, l'échange ou l'annotation de documents sur un tableau blanc, le transfert de fichiers, la discussion basée sur l'échange de textes (chat), le partage d'applications Windows entre utilisateurs distants et la connexion distante à  d'autres ordinateurs.
Mais ces fonctions exigent des capacités réseau que n'ont pas de nombreuses entreprises. En revanche, le produit comporte d'autres fonctions moins connues et très utiles, notamment pour l'assistance aux utilisateurs.
Par exemple, NetMeeting peut simplifier votre vie grâce à  l'accès distant et au partage d'applications qu'il permet, sans devoir acquérir une solution spécifique payante. NetMeeting est un outil génial pour le personnel de support aux utilisateurs ou pour que des employés situés dans des bureaux distants puissent collaborer sur un projet.
Un bref survol de NetMeeting permet de comprendre ses fonctions et de voir vous pouvez vous servir de NetMeeting dans votre LAN comme outils de help desk.

Lire l'article
Stockage performant des données

Stockage performant des données

Pour obtenir des traitements performants, tout le monde pense à  choisir un bon schéma physique pour les données d'une base. Mais il faut aussi stocker les données d'une manière acceptable pour les durées de sauvegarde, restauration et réorganisation. Voici quelques conseils. Le but de cet article est d'offrir quelques conseils en matière de sauvegarde et non de faire le tour du sujet. Nous n'y traiterons donc pas du choix des matériels (disques et streamers en mode RAID, divers types de cartouches, robots de stockage, réseaux d'accès aux données NAS/SAN et réseaux d'accès aux périphériques de sauvegarde.

Lire l'article
L’installateur de SMS

L’installateur de SMS

Microsoft Systems Management Server comporte un installateur qui aide les administrateurs systèmes à  automatiser la distribution des applications. Ce programme de SMS permet un déploiement cohérent et efficace des logiciels vers les utilisateurs sans imposer d'installation manuelle sur chaque ordinateur. L'installateur de SMS fonctionne comme Sysdiff de Windows NT. Il commence par prendre une photographie du système et installe le logiciel. Puis il refait une autre photographie et recherche les différences entre les répertoires et les registres. En mode Expert d'installation, l'installateur compile les différences dans un fichier exécutable (.exe) et il ne reste plus qu'à  créer une tâche SMS pour pousser le fichier vers les systèmes cibles.
Le mode Expert d'installation est une interface graphique permettant d'installer le progiciel via une série de boîtes de dialogue. L'installateur de SMS possède également un mode Editeur de script, qui permet de créer des scripts complets ou d'éditer les scripts existants.
Pour l'utiliser, Il faut apprendre un nouveau langage de script et passer beaucoup de temps à  écrire, tester et déboguer les scripts.
C'est pourquoi je ne recommande pas son utilisation. Dans les cas où l'installateur de SMS n'est pas suffisamment puissant, il est préférable d'acheter un produit tiers tel que WinINSTALL 6.0 de Seagate Software. (Pour en savoir plus sur WinINSTALL, voir l'encadré " WinINSTALL 6.0 "). L'installateur de SMS est fourni gratuitement avec SMS et répondra probablement à  vos besoins en matière de distribution d'applications.

Lire l'article
NT versus Linux : les trois avantages de Linux

NT versus Linux : les trois avantages de Linux

Les nouveaux OS m'ont toujours fasciné. J'adore les essayer, en espérant en trouver un qui soit fiable, souple et compatible. Au cours des 20 dernières années, j'ai utilisé de nombreux OS et aucun n'a répondu à  toutes mes attentes. Depuis 20 ans que j'essaie de nouveaux systèmes d'exploitation, j'ai eu l'occasion d'en utiliser plus d'un. J'ai ainsi pu tester notamment CP/M de Digital Research et ses successeurs CP/M-86 et MP/M ; TRSDOS, l'OS des systèmes TRS-80 ; TOS de l'Atari 520 ; GEM d'Amiga ; P-System de l'Université de Californie de San Diego (une première approche de type Java de l'indépendance vis à  vis de la machine) ; WM/386 d'IGC, Microsoft Windows/386 et DesQ de Quarterdeck (trois tentatives de construire un OS DOS multitâche) ; IBM OS/2 ; VINES de Banyan ; Novell NetWare ; et, bien sur, Windows NT.
Aucun de ces OS ne m'a apporté toutes les fonctions que je recherchais. Certains ont échoué à  cause de limites techniques, d'autres ont pâti d'un manque de reconnaissance du marché.

Dans certains cas, pour les deux raisons. Linux est le dernier en date des OS à  fort potentiel. Linus Torvalds a créé ce système proche d'UNIX en 1991 alors qu'il était étudiant, et des milliers d'autres programmeurs l'ont enrichi depuis. Une des raisons de l'attention et de l'intérêt suscité par Linux au cours des 2 dernières années et que tant de gens ont donné de leur temps pour travailler sur cet OS (autrement dit, peut de développeurs de Linux sont payés pour leur effort).
J'ai beaucoup appris sur Linux récemment car je prépare un livre destiné aux experts NT afin de leur faire découvrir ce qu'est Linux, ce qu'il peut faire et comment il peut faciliter la vie des administrateurs NT.

Parmi les forces de Linux que j'ai découvertes : sa capacité à  opérer en tant que serveur sans nécessiter d'interface graphique, ses outils intégrés puissants et sa nature contrôlable à  distance. Les interface graphiques consomment les ressources de la machine, privant le système de mémoire et de CPU au détriment des applications

Lire l'article
Réplication bidirectionnelle avec SQL Server 7.0

Réplication bidirectionnelle avec SQL Server 7.0

par Baya Pavliashvili
Les éditeurs convertis en abonnés et les abonnés convertis à  leur tour en éditeurs
Les fonctions avancées de réplication de SQL Server permettent de synchroniser les données de plusieurs bases de données, que celles-ci résident sur le même serveur ou non. Mais pourquoi pas simplement sauvegarder les bases de données et les restaurer ensuite sur un autre serveur, ou utiliser DTS (Data Transformation Services) pour transférer les tables et données ? Si on travaille sur des bases de données accessibles uniquement en lecture, ces techniques conviennent parfaitement. Mais qu'en est-il si on a une base de données transactionnelle (OLTP) de grande taille (100 Go ou plus) gérant une centaine de transactions ou plus par minute ? Ou alors, que faire si on a plus de 1.000 utilisateurs exécutant des instructions Select, Insert, Update et Delete au moins 8 heures par jour ? Dans ce contexte, effectuer des sauvegardes suivies de restaurations toutes les 10 minutes (ce qui aurait pour effet de verrouiller les tables et déclencher des appels d'utilisateurs irrités) est inacceptable. En outre, l'utilisation de DTS ou de bcp (bulk copy program) pour transférer autant d'informations à  chaque fois que l'on souhaite synchroniser des bases de données n'est pas viable ; le transfert nécessiterait beaucoup trop de temps.

Même si la réplication n'accélère pas le transfert des données, elle permet cependant, d'effectuer ce dernier d'un serveur à  un autre en une seule opération, puis de répercuter les modifications sur les autres bases de données. En d'autres termes, la réplication peut représenter la solution idéale pour transférer des données si on recherche un juste milieu entre la propagation des données sur différentes machines et la disponibilité de ces mêmes données.

SQL Server 7.0 passe à  la vitesse supérieure en matière de réplication et de facilité d'emploi

SQL Server 6.0 a apporté le support de la réplication, et SQL Server 6.5 a rajouté des améliorations mineures. Pour sa part, SQL Server 7.0 passe à  la vitesse supérieure en matière de réplication et de facilité d'emploi. En effet, SQL Server 7.0 va bien au delà  d'une photographie instantanée des données et de la réplication transactionnelle standard pour supporter la réplication bidirectionnelle (ou un abonnement avec mise à  jour instantanée) et la réplication par fusion. Cette version permet également de répliquer des données de et vers des plates-formes non SQL. De plus, SQL Server 7.0 automatise toutes les tâches de réplication, permettant ainsi aux administrateurs de configurer et d'administrer la réplication à  l'aide d'assistants, sans écrire une seule procédure cataloguée. A travers les assistants de réplication, il est même possible de paramétrer SQL Server de manière à  écrire des tâches de nettoyage et d'informer les administrateurs des éventuelles erreurs par courrier électronique ou pager. Passons en revue les assistants de SQL Server 7.0 en vue de configurer un exemple de solution de réplication avec mise à  jour immédiate. Examinons ensuite, l'action de SQL Server en coulisses pour implémenter cette solution et pour finir, testons la solution proposée.

Lire l'article
Comment tout savoir sur SQL Server 2000

Comment tout savoir sur SQL Server 2000

La nouvelle version atteint de nouveaux sommets Remarque : Les auteurs ont basé leurs articles SQL Server 2000 sur des versions antérieures à  la Bêta 2. Aussi, il se peut que vous remarquiez quelques différences entre la Bêta 2 et le comportement ou les interfaces décrits dans cet article. En particulier, veuillez noter que la fonction vues indexées ne sera disponible que dans SQL Server 2000 Enterprise Edition. Toutefois, on peut installer Entreprise Edition sur un serveur NT 4 ou Windows 2000 (W2K). On n'est pas obligé d'utiliser NT 4.0 Enterprise ou W2K Advanced Server.

Imaginez que vous ayez la possibilité de construire la maison de vos rêves, dans laquelle vous projetez d'élever vos enfants au cours des 20 prochaines années. L'argent n'est pas un problème, mais vous voulez emménager le plus tôt possible.

Dans ce cas, vous allez être obligé de faire des concessions, et de choisir entre avoir une maison parfaitement aménagée avant d'y habiter et pouvoir y emménager le plus tôt possible. Vous allez passer du temps à  concevoir soigneusement les pièces principales de la maison, sachant que vous pourrez toujours terminer le sous-sol ou rajouter une grande terrasse après avoir emménagé. Comparons ce processus à  la construction de SQL Server.

Il y a plusieurs années, Microsoft a regroupé les meilleurs spécialistes de la conception des bases de données à  travers le monde (internes et externes à  Microsoft) et leur a demandé de bâtir la base de données de leurs rêves. Considérez SQL Server 7.0 comme le résultat fondamental de ces efforts. SQL Server 7.0 est une réécriture importante du code de base, mais les administrateurs de bases données et les développeurs ne pouvaient pas voir ni toucher beaucoup de ces améliorations. En effet, SQL Server 7.0 apporte une kyrielle de nouvelles fonctionnalités importantes (comme les services OLAP). Mais une grande partie du réingéneering du noyau se situe au niveau de la gestion des pages et de la mémoire. Pour la première fois en Octobre 1999, j'ai vu SQL Server 2000 lors de la conférence MVP (Most Valuable Professional) de Microsoft.
Les premiers séminaires couvraient l'architecture interne des moteurs relationnels et de la mémoire, et je suis reparti avec le sentiment très fort que SQL Server 2000 s'appuie sur les fondations de SQL Server 7.0 et y rajoute "la plomberie et l'électricité". A bien des égards, SQL Server 2000 ressemble à  ce sous-sol terminé, cette énorme terrasse et ce studio de projection personnel dont vous avez toujours rêvé.

Il peut désormais rivaliser d'égal à  égal avec n'importe quelle plate-forme de base de données concurrentes

Lire l'article
Optimiser NT et IIS pour les pages ASP

Optimiser NT et IIS pour les pages ASP

Les pages actives ASP sont utilisées par de nombreuses entreprises, d'Internet aux intranets d'entreprise et de nombreux administrateurs système choisissent Windows NT Server et Internet Information Server pour les faire tourner. Cependant, Windows NT et IIS doivent être optimisés pour offrir de bonnes performances. Si vous voulez tirer le meilleur des applications ASP (Active Server Pages), vous rencontrerez le succès en configurant Windows NT Server pour en faire une plate-forme efficace pour Internet Information Server (IIS) et en faisant quelques modifications simples mais essentielles à  la configuration d'IIS afin qu'il aide vos serveurs à  fonctionner de façon optimale.

Souvenez-vous qu'il vous faut tester vos applications et optimiser l'environnement de votre serveur à  mesure que vous faites les changements. Faites une check-list des paramètres de vos serveurs afin d'être sûr que vous avez configuré chaque serveur correctement. Automatisez l'installation de vos serveurs autant que vous le pouvez pour configurer les serveurs rapidement et sans risque d'erreur.
Si tous vos serveurs ont la même configuration matérielle, vous pouvez envisager d'utiliser Norton Ghost, ou tout autre utilitaire équivalent de réplication automatique, pour installer vos nouveaux serveurs. Si vous utilisez un utilitaire pour répliquer les serveurs, assurez-vous que l'utilitaire vous permet de créer un SID pour chaque serveur.

En outre, testez le processus de réplication sur un seul système avant de créer plusieurs serveurs. Personne ne veut répliquer un système dont les applications sont mal paramétrées. Il est possible également que vous rencontriez des problèmes avec la métabase d'IIS sur les systèmes répliqués si le SID change. Si de tels problèmes devaient survenir, vous pourriez devoir réinstaller IIS sur la machine concernée.

Lire l'article
Les 7 étapes vers le data warehouse

Les 7 étapes vers le data warehouse

Les data warehouses sont un rêve pour les analystes : toute l'information concernant les activités de l'entreprise est regroupée en un seul lieu et prête à  être utilisée par un ensemble cohérent d'outils d'analyse. Mais comment transformer le rêve en réalité ? Pour atteindre ce Nirvana des décideurs qu'est le data warehouse, il faut tout d'abord bien penser le système. Vous devez comprendre le type de questions que les utilisateurs vont lui poser (par exemple, combien de nouveaux clients par trimestre ou quel segment de marché achète le plus d'environnements de développement d'applications dans la région Ouest) car la raison d'être des systèmes de data warehouse est de fournir aux décideurs l'information adaptée et à  jour dont ils ont besoin pour faire les bons choix.

Pour illustrer le processus, nous utiliserons un data warehouse créé pour une société imaginaire fournissant des logiciels de développement d'applications, du consulting, du personnel en délégation et des formations. Le marché évolue très rapidement pour la société. Ses dirigeants ont donc besoin de savoir quels ajustements dans leur modèle économique et leurs méthodes commerciales ils doivent faire pour permettre à  l'entreprise de poursuivre sa croissance. Pour aider la société, nous avons travaillé avec l'encadrement supérieur pour concevoir une solution.

Tout d'abord, nous avons déterminé les objectifs de l'entreprise pour ce nouveau système. Ensuite, nous avons collecté et analysé des informations que la société. Nous avons identifié les processus fondamentaux que l'entreprise devait surveiller et construit un modèle conceptuel des données. Puis, nous avons situé les sources de données et prévu les transformations nécessaires à  leur appliquer. Enfin, nous avons fixé la durée de conservation des données.

Lire l'article
Trois façons de maigrir

Trois façons de maigrir

Dans notre numéro de mai 1998, nous avions testé les beta 1 de Terminal Server et de MetaFrame de Citrix Systems ainsi que la MaxStation de Maxspeed pour l'article " Enfants de l'Hydre ". Depuis, les environnement NT multiutilisateurs ont évolué. Voici donc les pages " minceur " que tout bon magazine se doit de proposer pour l'été.

Lire l'article
Mesurer et administrer les performances des applications NT Workstation

Mesurer et administrer les performances des applications NT Workstation

Quand il s'agit d'obtenir des performances maximales de Windows NT Workstation 4.0, la première chose qui vient à  l'esprit est qu'il suffit d'éliminer le shell de l'explorateur, d'utiliser une interface d'invite de commandes et de ne pas exécuter ces fichues applications graphiques. Moyennant quoi NT Workstation va décoller. C'est ce que j'appelle la " mentalité table rase ", d'ailleurs répandue chez les disciples d'UNIX, persuadés, parfois non sans raison, que les applications graphiques sont cause de ralentissement. En fait, les performances du noyau de Windows NT n'ont aucune importance, puisque Windows NT Workstation fonctionne dans un environnement graphique et exécute des applications graphiques. Dans la plupart des cas, on ne peut pas désactiver le shell de l'Explorateur Windows sans invalider la fonctionnalité du système. Il est donc temps de réexaminer d'un oeil neuf comment mesurer et gérer les performances des postes de travail Windows NT afin de profiter au maximum de cet investissement. Pour commencer, les compteurs de l'analyseur de performances permettent d'identifier les applications posant des problèmes, ce qui est un point de départ très utile. Par ailleurs, certains utilitaires du Kit de ressources de Windows NT Workstation 4.0 aident à  mesurer et à  surveiller les problèmes de performances.

Lire l'article
Une nouvelle étape pour le groupe RMH

Une nouvelle étape pour le groupe RMH

La récente fusion des groupes TMA et RMH est l'occasion pour RMH de présenter sa nouvelle organisation.

Lire l'article
Le Triangle d’Or

Le Triangle d’Or

par Samy Mosimann Dans le monde de la banque privée, la place de l'AS/400 reste prépondérante, avec un facteur de 1 à  8 par rapport au nombre d'installations Unix Genève, Zurich et Luxembourg sont les trois sommets du triangle d'or de l'activité bancaire privée en Europe. Ces banques sont des établissements qui ne se comparent pas aux grandes banques nationales ou publiques européennes. Elles sont moins importantes et emploient de moins de 40 à  plus de 500 employés. Globalement, on peut estimer qu'environ 1000 banques sont en activité dans ce domaine en Suisse et au Luxembourg.

Lire l'article
Gérer la charge des serveurs Web

Gérer la charge des serveurs Web

Au fur et à  mesure du développement du commerce électronique, les entreprises sont de plus en plus nombreuses à  compter sur leurs sites Web pour communiquer avec les clients. Un site Web très performant, délivrant rapidement et en toute fiabilité du contenu, accroît sa clientèle, la fidélise et joue un rôle crucial pour un commerce électronique prospère et compétitif. Les clients potentiels ne seront pas enclins à  retourner sur un site Web, s'ils sont frustrés par sa lenteur et se heurtent à  des retards importants ou à  des défaillances. Ainsi, dans le cadre de la planification et de la mise en oeuvre de l'infrastructure Web d'une entreprise, il faut prendre en compte sérieusement l'amélioration des performances de son site Web.

Il existe plusieurs méthodes pour améliorer les performances du Web : augmenter la bande passante Internet, utiliser un équipement de réseau rapide, concevoir des applications Web efficaces, optimiser et mettre à  niveau les logiciels et les matériels des serveurs Web, et utiliser une technologie de Web-caching.

Il est également possible d'améliorer les performances d'un site Web en ajoutant des serveurs Web et des sites et en mettant en miroir le contenu entre tous les serveurs et les sites. Cette méthode permet de partager la charge globale entre les serveurs et les sites et de réduire le retard d'exécution des informations, occasionné par le traitement interne des requêtes des clients d'un serveur.
Elle permet, en outre, de conserver des serveurs existants plutôt que de les éliminer pour faire de la place à  de nouveaux serveurs.

Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger un seul serveur avec le trafic du Web, alors que d'autres restent inactifs. Pour équilibrer la charge entre les serveurs Web, on fait traditionnellement appel à  la fonction " à  tour de rôle " du DNS qui permet de distribuer équitablement les adresses IP des serveurs Web entre les clients ; ainsi, les serveurs Web sont tous accessibles à  égalité.

Mais ce mécanisme ne permet pas d'équilibrer la charge dans un environnement où les serveurs Web ont différentes capacités matérielles et logicielles. Par exemple, un système Windows 2000 Server avec deux processeurs Pentium III à  450 MHz et 2 Go de mémoire devrait traiter plus de charge dans un environnement à  équilibrage de charge qu'un système Windows NT Server avec un processeur Pentium II à  300 MHz et 256 Mo de mémoire.

Or la fonction " à  tour de rôle " de DNS traite ces deux systèmes à  égalité ; elle ignore la disponibilité d'un serveur Web, parce qu'elle ne détecte pas si le serveur est en marche ou arrêté.

Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger un seul serveur avec le trafic du Web, alors que d'autres restent inactifsRécemment, des éditeurs indépendants ont développé des load balancers ou équilibreurs de charge, c'est-à -dire des produits permettant d'équilibrer la charge uniformément entre plusieurs serveurs et garantissant en outre la tolérance aux pannes des serveurs Web en redirigeant le trafic et les clients vers un autre serveur ou site en cas de défaillance.

Ainsi, les clients subissent moins de retards et de pannes. Les équilibreurs de charge peuvent s'utiliser dans des scénarios monosite ou multisite Web. Qu'est-ce qu'un équilibreur de charge, comment fonctionne-t-il ? Autant de questions importantes à  prendre en considération avant de faire son choix.

Lire l'article
SQL Server 2000 : vers les sommets

SQL Server 2000 : vers les sommets

Imaginez que vous pouvez construire la maison de vos rêves. Pas de problème de budget, mais vous voulez emménager le plus vite possible. Dans ce cas, il vous faudra choisir entre avoir la perfection avant d'emménager et prendre possession de la maison le plus vite possible. Vous prendrez probablement du temps pour concevoir les fondations et les pièces essentielles, quitte à  ajouter une aile ou à  aménager les combles par la suite. Le processus d'évolution de SQL Server ressemble un peu à  la construction de cette maison. Il y a plusieurs années, Microsoft a réuni plusieurs des meilleurs spécialistes mondiaux des bases de données (de Microsoft et d'ailleurs) et leur a demandé de créer la base de données de leurs rêves. On peut considérer SQL Server 7.0 comme les fondations de ce projet.

Le code de SQL Server 7.0 comportait des évolutions majeures par rapport au code de base mais les DBA et les développeurs ne pouvaient pas voir ou utiliser de nombreuses améliorations. Microsoft SQL Server 7.0 comportait de nombreuses améliorations visibles (telles que les services OLAP), mais la plupart des efforts de reengineering se situait au niveau de la page ou du stockage. J'ai découvert SQL Server 2000 à  la conférence SQL Server Most Valuable Professional (MVP) de Microsoft en octobre dernier.

Les premiers briefings portaient principalement sur l'architecture interne et je suis reparti avec un tuyau important : SQL Server 2000 s'appuie sur les fondations de SQL Server 7.0 et rénove une partie de la plomberie et du réseau électrique. En fait, à  bien des égards, SQL Server 2000 c'est la maison terminée, la grande extension et les salles de projection privées dont vous avez toujours révées.

Lire l'article
PPTP est-il sûr ?

PPTP est-il sûr ?

Ces dernières années, les utilisateurs et les hackers ont révélé de sérieux défauts dans l'implémentation par Microsoft de PPTP, le composant de RAS permettant d'établir des réseaux privés virtuels. Les hotfixes de Microsoft corrigent-ils les lacunes de PPTP ? Les premiers grondements éloignés, annonciateurs de l'orage, se sont manifestés en avril 1998, quand les utilisateurs ont posé des questions sur la sécurité de PPTP dans les forums de sécurité. Ces questions étaient généralement suivies par des descriptions d'éventuelles vulnérabilités des réseaux privés virtuels (VPN pour Virtual Private Network).
En juin 1998, Counterpane Systems a sorti " Cryptanalysis Microsoft's Point-to-Point Tunneling Protocol " (http://www.counterpane.com/pptppaper.html), une analyse formelle démontrant les vulnérabilités de PPTP. Quelque temps plus tard, L0pht Heavy Industries, (http://www.L0pht.com) a sorti Readsmb (qui accompagne L0phtCrack 2.0), un programme renifleur capable de déduire les mots de passe d'utilisateurs à  partir des questions/réponses traversant la plupart des réseaux NT. (Pour en savoir plus sur Readsmb, voir l'article " Protégez vos mots de passe " de décembre 1998).
Au moment où la communauté de la sécurité révélait ces vulnérabilités, Microsoft était en train de développer les mises à  jour de la spécification PPTP et les versions du code consécutives. En août 1998, Microsoft a sorti trois corrections pour PPTP et d'autres mises à  jour de DUN.

Les utilisateurs et les hackers ont révélé plusieurs faiblesses de PPTP compromettant la sécurité du système

L'an dernier, on a eu beaucoup de mal à  suivre l'évolution des choses tant la confusion était grande entre les déclarations des hackers et les réponses de Microsoft. La question de la sécurité de PPTP reste donc d'actualité. Pour répondre à  cette question, je vais détailler les faiblesses de PPTP et expliquer comment Microsoft a réussi à  les corriger avec les améliorations successives de la mise à  jour PPTP3. J'indiquerai aussi où trouver les améliorations de sécurité de Microsoft.

Lire l'article
Le top 10 des commandes batch

Le top 10 des commandes batch

Le Kit de ressources de Windows NT Server 4.0 comporte de nombreuses commandes batch. Cer article liste les dix commandes que j'utilise le plus. Il n'a pas été facile de ne choisir que dix commandes parmi les nombreux utilitaires du Kit de ressources.

Lire l'article
Bâtir des routages IP redondants

Bâtir des routages IP redondants

Le succès du commerce électronique repose largement sur le routage IP, qui achemine les informations de l'e-business d'une entreprise à  l'autre. Sans mécanisme de routage IP redondant et à  tolérance de panne, l'e-business d'une entreprise ne peut pas survivre aux désastres (ouragans, inondations, panne d'alimentation, interruptions de connexions Internet, défaillances hardware…), parce que l'entreprise n'a pas d'autre méthode pour accéder à  l'Internet Pour atteindre et conserver un avantage concurrentiel en commerce électronique, il vous faut intégrer un routage IP redondant dans votre infrastructure Internet. Il existe divers moyens pour cela et l'un des plus courants est d'installer des routeurs et des connexions Internet redondants. La présence de plusieurs routeurs sur un même sous-réseau garantit la disponibilité d'une passerelle vers les serveurs Internet en cas de défaillance de la passerelle par défaut.
De même plusieurs connexions à  divers ISP (c'est-à -dire le multihoming) permettent de disposer d'itinéraires de substitution vers l'Internet, en cas de panne d'une liaison Internet ou d'un routeur.
Avant même l'expansion du commerce électronique, l'IETF (Internet Engineering Task Force) avait mis au point plusieurs protocoles Internet pour le routage IP redondant. Il s'agit du protocole FIRP (Fault Isolation and Recovery Protocol), qui détecte les passerelles qui ne fonctionnent plus et supporte plusieurs passerelles par défaut ; IRDP (Internet Router Discovery Protocol) ; VRRP (Virtual Router Redundancy Protocol) et BGP (Border Gateway Protocol). FIRP, IRDP et VRRP servent à  créer la redondance des routeurs locaux et BGP la redondance des routeurs Internet. Windows 2000 et Windows NT 4.0 supportent FIRP et IRDP, et de nombreux produits d'exploitation et de routage Internet supportent IRDP, VRRP et BGP.
Pour inclure la fonctionnalité de routage IP redondant dans une infrastructure de commerce électronique, il est indispensable de bien comprendre les bases du fonctionnement de ces protocoles dans les configurations de routage IP redondantes.

Lire l'article