> Windows
NT versus Linux : les trois avantages de Linux

NT versus Linux : les trois avantages de Linux

Les nouveaux OS m'ont toujours fasciné. J'adore les essayer, en espérant en trouver un qui soit fiable, souple et compatible. Au cours des 20 dernières années, j'ai utilisé de nombreux OS et aucun n'a répondu à  toutes mes attentes. Depuis 20 ans que j'essaie de nouveaux systèmes d'exploitation, j'ai eu l'occasion d'en utiliser plus d'un. J'ai ainsi pu tester notamment CP/M de Digital Research et ses successeurs CP/M-86 et MP/M ; TRSDOS, l'OS des systèmes TRS-80 ; TOS de l'Atari 520 ; GEM d'Amiga ; P-System de l'Université de Californie de San Diego (une première approche de type Java de l'indépendance vis à  vis de la machine) ; WM/386 d'IGC, Microsoft Windows/386 et DesQ de Quarterdeck (trois tentatives de construire un OS DOS multitâche) ; IBM OS/2 ; VINES de Banyan ; Novell NetWare ; et, bien sur, Windows NT.
Aucun de ces OS ne m'a apporté toutes les fonctions que je recherchais. Certains ont échoué à  cause de limites techniques, d'autres ont pâti d'un manque de reconnaissance du marché.

Dans certains cas, pour les deux raisons. Linux est le dernier en date des OS à  fort potentiel. Linus Torvalds a créé ce système proche d'UNIX en 1991 alors qu'il était étudiant, et des milliers d'autres programmeurs l'ont enrichi depuis. Une des raisons de l'attention et de l'intérêt suscité par Linux au cours des 2 dernières années et que tant de gens ont donné de leur temps pour travailler sur cet OS (autrement dit, peut de développeurs de Linux sont payés pour leur effort).
J'ai beaucoup appris sur Linux récemment car je prépare un livre destiné aux experts NT afin de leur faire découvrir ce qu'est Linux, ce qu'il peut faire et comment il peut faciliter la vie des administrateurs NT.

Parmi les forces de Linux que j'ai découvertes : sa capacité à  opérer en tant que serveur sans nécessiter d'interface graphique, ses outils intégrés puissants et sa nature contrôlable à  distance. Les interface graphiques consomment les ressources de la machine, privant le système de mémoire et de CPU au détriment des applications

Lire l'article
Réplication bidirectionnelle avec SQL Server 7.0

Réplication bidirectionnelle avec SQL Server 7.0

par Baya Pavliashvili
Les éditeurs convertis en abonnés et les abonnés convertis à  leur tour en éditeurs
Les fonctions avancées de réplication de SQL Server permettent de synchroniser les données de plusieurs bases de données, que celles-ci résident sur le même serveur ou non. Mais pourquoi pas simplement sauvegarder les bases de données et les restaurer ensuite sur un autre serveur, ou utiliser DTS (Data Transformation Services) pour transférer les tables et données ? Si on travaille sur des bases de données accessibles uniquement en lecture, ces techniques conviennent parfaitement. Mais qu'en est-il si on a une base de données transactionnelle (OLTP) de grande taille (100 Go ou plus) gérant une centaine de transactions ou plus par minute ? Ou alors, que faire si on a plus de 1.000 utilisateurs exécutant des instructions Select, Insert, Update et Delete au moins 8 heures par jour ? Dans ce contexte, effectuer des sauvegardes suivies de restaurations toutes les 10 minutes (ce qui aurait pour effet de verrouiller les tables et déclencher des appels d'utilisateurs irrités) est inacceptable. En outre, l'utilisation de DTS ou de bcp (bulk copy program) pour transférer autant d'informations à  chaque fois que l'on souhaite synchroniser des bases de données n'est pas viable ; le transfert nécessiterait beaucoup trop de temps.

Même si la réplication n'accélère pas le transfert des données, elle permet cependant, d'effectuer ce dernier d'un serveur à  un autre en une seule opération, puis de répercuter les modifications sur les autres bases de données. En d'autres termes, la réplication peut représenter la solution idéale pour transférer des données si on recherche un juste milieu entre la propagation des données sur différentes machines et la disponibilité de ces mêmes données.

SQL Server 7.0 passe à  la vitesse supérieure en matière de réplication et de facilité d'emploi

SQL Server 6.0 a apporté le support de la réplication, et SQL Server 6.5 a rajouté des améliorations mineures. Pour sa part, SQL Server 7.0 passe à  la vitesse supérieure en matière de réplication et de facilité d'emploi. En effet, SQL Server 7.0 va bien au delà  d'une photographie instantanée des données et de la réplication transactionnelle standard pour supporter la réplication bidirectionnelle (ou un abonnement avec mise à  jour instantanée) et la réplication par fusion. Cette version permet également de répliquer des données de et vers des plates-formes non SQL. De plus, SQL Server 7.0 automatise toutes les tâches de réplication, permettant ainsi aux administrateurs de configurer et d'administrer la réplication à  l'aide d'assistants, sans écrire une seule procédure cataloguée. A travers les assistants de réplication, il est même possible de paramétrer SQL Server de manière à  écrire des tâches de nettoyage et d'informer les administrateurs des éventuelles erreurs par courrier électronique ou pager. Passons en revue les assistants de SQL Server 7.0 en vue de configurer un exemple de solution de réplication avec mise à  jour immédiate. Examinons ensuite, l'action de SQL Server en coulisses pour implémenter cette solution et pour finir, testons la solution proposée.

Lire l'article
Comment tout savoir sur SQL Server 2000

Comment tout savoir sur SQL Server 2000

La nouvelle version atteint de nouveaux sommets Remarque : Les auteurs ont basé leurs articles SQL Server 2000 sur des versions antérieures à  la Bêta 2. Aussi, il se peut que vous remarquiez quelques différences entre la Bêta 2 et le comportement ou les interfaces décrits dans cet article. En particulier, veuillez noter que la fonction vues indexées ne sera disponible que dans SQL Server 2000 Enterprise Edition. Toutefois, on peut installer Entreprise Edition sur un serveur NT 4 ou Windows 2000 (W2K). On n'est pas obligé d'utiliser NT 4.0 Enterprise ou W2K Advanced Server.

Imaginez que vous ayez la possibilité de construire la maison de vos rêves, dans laquelle vous projetez d'élever vos enfants au cours des 20 prochaines années. L'argent n'est pas un problème, mais vous voulez emménager le plus tôt possible.

Dans ce cas, vous allez être obligé de faire des concessions, et de choisir entre avoir une maison parfaitement aménagée avant d'y habiter et pouvoir y emménager le plus tôt possible. Vous allez passer du temps à  concevoir soigneusement les pièces principales de la maison, sachant que vous pourrez toujours terminer le sous-sol ou rajouter une grande terrasse après avoir emménagé. Comparons ce processus à  la construction de SQL Server.

Il y a plusieurs années, Microsoft a regroupé les meilleurs spécialistes de la conception des bases de données à  travers le monde (internes et externes à  Microsoft) et leur a demandé de bâtir la base de données de leurs rêves. Considérez SQL Server 7.0 comme le résultat fondamental de ces efforts. SQL Server 7.0 est une réécriture importante du code de base, mais les administrateurs de bases données et les développeurs ne pouvaient pas voir ni toucher beaucoup de ces améliorations. En effet, SQL Server 7.0 apporte une kyrielle de nouvelles fonctionnalités importantes (comme les services OLAP). Mais une grande partie du réingéneering du noyau se situe au niveau de la gestion des pages et de la mémoire. Pour la première fois en Octobre 1999, j'ai vu SQL Server 2000 lors de la conférence MVP (Most Valuable Professional) de Microsoft.
Les premiers séminaires couvraient l'architecture interne des moteurs relationnels et de la mémoire, et je suis reparti avec le sentiment très fort que SQL Server 2000 s'appuie sur les fondations de SQL Server 7.0 et y rajoute "la plomberie et l'électricité". A bien des égards, SQL Server 2000 ressemble à  ce sous-sol terminé, cette énorme terrasse et ce studio de projection personnel dont vous avez toujours rêvé.

Il peut désormais rivaliser d'égal à  égal avec n'importe quelle plate-forme de base de données concurrentes

Lire l'article
Optimiser NT et IIS pour les pages ASP

Optimiser NT et IIS pour les pages ASP

Les pages actives ASP sont utilisées par de nombreuses entreprises, d'Internet aux intranets d'entreprise et de nombreux administrateurs système choisissent Windows NT Server et Internet Information Server pour les faire tourner. Cependant, Windows NT et IIS doivent être optimisés pour offrir de bonnes performances. Si vous voulez tirer le meilleur des applications ASP (Active Server Pages), vous rencontrerez le succès en configurant Windows NT Server pour en faire une plate-forme efficace pour Internet Information Server (IIS) et en faisant quelques modifications simples mais essentielles à  la configuration d'IIS afin qu'il aide vos serveurs à  fonctionner de façon optimale.

Souvenez-vous qu'il vous faut tester vos applications et optimiser l'environnement de votre serveur à  mesure que vous faites les changements. Faites une check-list des paramètres de vos serveurs afin d'être sûr que vous avez configuré chaque serveur correctement. Automatisez l'installation de vos serveurs autant que vous le pouvez pour configurer les serveurs rapidement et sans risque d'erreur.
Si tous vos serveurs ont la même configuration matérielle, vous pouvez envisager d'utiliser Norton Ghost, ou tout autre utilitaire équivalent de réplication automatique, pour installer vos nouveaux serveurs. Si vous utilisez un utilitaire pour répliquer les serveurs, assurez-vous que l'utilitaire vous permet de créer un SID pour chaque serveur.

En outre, testez le processus de réplication sur un seul système avant de créer plusieurs serveurs. Personne ne veut répliquer un système dont les applications sont mal paramétrées. Il est possible également que vous rencontriez des problèmes avec la métabase d'IIS sur les systèmes répliqués si le SID change. Si de tels problèmes devaient survenir, vous pourriez devoir réinstaller IIS sur la machine concernée.

Lire l'article
Les 7 étapes vers le data warehouse

Les 7 étapes vers le data warehouse

Les data warehouses sont un rêve pour les analystes : toute l'information concernant les activités de l'entreprise est regroupée en un seul lieu et prête à  être utilisée par un ensemble cohérent d'outils d'analyse. Mais comment transformer le rêve en réalité ? Pour atteindre ce Nirvana des décideurs qu'est le data warehouse, il faut tout d'abord bien penser le système. Vous devez comprendre le type de questions que les utilisateurs vont lui poser (par exemple, combien de nouveaux clients par trimestre ou quel segment de marché achète le plus d'environnements de développement d'applications dans la région Ouest) car la raison d'être des systèmes de data warehouse est de fournir aux décideurs l'information adaptée et à  jour dont ils ont besoin pour faire les bons choix.

Pour illustrer le processus, nous utiliserons un data warehouse créé pour une société imaginaire fournissant des logiciels de développement d'applications, du consulting, du personnel en délégation et des formations. Le marché évolue très rapidement pour la société. Ses dirigeants ont donc besoin de savoir quels ajustements dans leur modèle économique et leurs méthodes commerciales ils doivent faire pour permettre à  l'entreprise de poursuivre sa croissance. Pour aider la société, nous avons travaillé avec l'encadrement supérieur pour concevoir une solution.

Tout d'abord, nous avons déterminé les objectifs de l'entreprise pour ce nouveau système. Ensuite, nous avons collecté et analysé des informations que la société. Nous avons identifié les processus fondamentaux que l'entreprise devait surveiller et construit un modèle conceptuel des données. Puis, nous avons situé les sources de données et prévu les transformations nécessaires à  leur appliquer. Enfin, nous avons fixé la durée de conservation des données.

Lire l'article
Trois façons de maigrir

Trois façons de maigrir

Dans notre numéro de mai 1998, nous avions testé les beta 1 de Terminal Server et de MetaFrame de Citrix Systems ainsi que la MaxStation de Maxspeed pour l'article " Enfants de l'Hydre ". Depuis, les environnement NT multiutilisateurs ont évolué. Voici donc les pages " minceur " que tout bon magazine se doit de proposer pour l'été.

Lire l'article
Mesurer et administrer les performances des applications NT Workstation

Mesurer et administrer les performances des applications NT Workstation

Quand il s'agit d'obtenir des performances maximales de Windows NT Workstation 4.0, la première chose qui vient à  l'esprit est qu'il suffit d'éliminer le shell de l'explorateur, d'utiliser une interface d'invite de commandes et de ne pas exécuter ces fichues applications graphiques. Moyennant quoi NT Workstation va décoller. C'est ce que j'appelle la " mentalité table rase ", d'ailleurs répandue chez les disciples d'UNIX, persuadés, parfois non sans raison, que les applications graphiques sont cause de ralentissement. En fait, les performances du noyau de Windows NT n'ont aucune importance, puisque Windows NT Workstation fonctionne dans un environnement graphique et exécute des applications graphiques. Dans la plupart des cas, on ne peut pas désactiver le shell de l'Explorateur Windows sans invalider la fonctionnalité du système. Il est donc temps de réexaminer d'un oeil neuf comment mesurer et gérer les performances des postes de travail Windows NT afin de profiter au maximum de cet investissement. Pour commencer, les compteurs de l'analyseur de performances permettent d'identifier les applications posant des problèmes, ce qui est un point de départ très utile. Par ailleurs, certains utilitaires du Kit de ressources de Windows NT Workstation 4.0 aident à  mesurer et à  surveiller les problèmes de performances.

Lire l'article
Une nouvelle étape pour le groupe RMH

Une nouvelle étape pour le groupe RMH

La récente fusion des groupes TMA et RMH est l'occasion pour RMH de présenter sa nouvelle organisation.

Lire l'article
Le Triangle d’Or

Le Triangle d’Or

par Samy Mosimann Dans le monde de la banque privée, la place de l'AS/400 reste prépondérante, avec un facteur de 1 à  8 par rapport au nombre d'installations Unix Genève, Zurich et Luxembourg sont les trois sommets du triangle d'or de l'activité bancaire privée en Europe. Ces banques sont des établissements qui ne se comparent pas aux grandes banques nationales ou publiques européennes. Elles sont moins importantes et emploient de moins de 40 à  plus de 500 employés. Globalement, on peut estimer qu'environ 1000 banques sont en activité dans ce domaine en Suisse et au Luxembourg.

Lire l'article
Gérer la charge des serveurs Web

Gérer la charge des serveurs Web

Au fur et à  mesure du développement du commerce électronique, les entreprises sont de plus en plus nombreuses à  compter sur leurs sites Web pour communiquer avec les clients. Un site Web très performant, délivrant rapidement et en toute fiabilité du contenu, accroît sa clientèle, la fidélise et joue un rôle crucial pour un commerce électronique prospère et compétitif. Les clients potentiels ne seront pas enclins à  retourner sur un site Web, s'ils sont frustrés par sa lenteur et se heurtent à  des retards importants ou à  des défaillances. Ainsi, dans le cadre de la planification et de la mise en oeuvre de l'infrastructure Web d'une entreprise, il faut prendre en compte sérieusement l'amélioration des performances de son site Web.

Il existe plusieurs méthodes pour améliorer les performances du Web : augmenter la bande passante Internet, utiliser un équipement de réseau rapide, concevoir des applications Web efficaces, optimiser et mettre à  niveau les logiciels et les matériels des serveurs Web, et utiliser une technologie de Web-caching.

Il est également possible d'améliorer les performances d'un site Web en ajoutant des serveurs Web et des sites et en mettant en miroir le contenu entre tous les serveurs et les sites. Cette méthode permet de partager la charge globale entre les serveurs et les sites et de réduire le retard d'exécution des informations, occasionné par le traitement interne des requêtes des clients d'un serveur.
Elle permet, en outre, de conserver des serveurs existants plutôt que de les éliminer pour faire de la place à  de nouveaux serveurs.

Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger un seul serveur avec le trafic du Web, alors que d'autres restent inactifs. Pour équilibrer la charge entre les serveurs Web, on fait traditionnellement appel à  la fonction " à  tour de rôle " du DNS qui permet de distribuer équitablement les adresses IP des serveurs Web entre les clients ; ainsi, les serveurs Web sont tous accessibles à  égalité.

Mais ce mécanisme ne permet pas d'équilibrer la charge dans un environnement où les serveurs Web ont différentes capacités matérielles et logicielles. Par exemple, un système Windows 2000 Server avec deux processeurs Pentium III à  450 MHz et 2 Go de mémoire devrait traiter plus de charge dans un environnement à  équilibrage de charge qu'un système Windows NT Server avec un processeur Pentium II à  300 MHz et 256 Mo de mémoire.

Or la fonction " à  tour de rôle " de DNS traite ces deux systèmes à  égalité ; elle ignore la disponibilité d'un serveur Web, parce qu'elle ne détecte pas si le serveur est en marche ou arrêté.

Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger un seul serveur avec le trafic du Web, alors que d'autres restent inactifsRécemment, des éditeurs indépendants ont développé des load balancers ou équilibreurs de charge, c'est-à -dire des produits permettant d'équilibrer la charge uniformément entre plusieurs serveurs et garantissant en outre la tolérance aux pannes des serveurs Web en redirigeant le trafic et les clients vers un autre serveur ou site en cas de défaillance.

Ainsi, les clients subissent moins de retards et de pannes. Les équilibreurs de charge peuvent s'utiliser dans des scénarios monosite ou multisite Web. Qu'est-ce qu'un équilibreur de charge, comment fonctionne-t-il ? Autant de questions importantes à  prendre en considération avant de faire son choix.

Lire l'article
SQL Server 2000 : vers les sommets

SQL Server 2000 : vers les sommets

Imaginez que vous pouvez construire la maison de vos rêves. Pas de problème de budget, mais vous voulez emménager le plus vite possible. Dans ce cas, il vous faudra choisir entre avoir la perfection avant d'emménager et prendre possession de la maison le plus vite possible. Vous prendrez probablement du temps pour concevoir les fondations et les pièces essentielles, quitte à  ajouter une aile ou à  aménager les combles par la suite. Le processus d'évolution de SQL Server ressemble un peu à  la construction de cette maison. Il y a plusieurs années, Microsoft a réuni plusieurs des meilleurs spécialistes mondiaux des bases de données (de Microsoft et d'ailleurs) et leur a demandé de créer la base de données de leurs rêves. On peut considérer SQL Server 7.0 comme les fondations de ce projet.

Le code de SQL Server 7.0 comportait des évolutions majeures par rapport au code de base mais les DBA et les développeurs ne pouvaient pas voir ou utiliser de nombreuses améliorations. Microsoft SQL Server 7.0 comportait de nombreuses améliorations visibles (telles que les services OLAP), mais la plupart des efforts de reengineering se situait au niveau de la page ou du stockage. J'ai découvert SQL Server 2000 à  la conférence SQL Server Most Valuable Professional (MVP) de Microsoft en octobre dernier.

Les premiers briefings portaient principalement sur l'architecture interne et je suis reparti avec un tuyau important : SQL Server 2000 s'appuie sur les fondations de SQL Server 7.0 et rénove une partie de la plomberie et du réseau électrique. En fait, à  bien des égards, SQL Server 2000 c'est la maison terminée, la grande extension et les salles de projection privées dont vous avez toujours révées.

Lire l'article
PPTP est-il sûr ?

PPTP est-il sûr ?

Ces dernières années, les utilisateurs et les hackers ont révélé de sérieux défauts dans l'implémentation par Microsoft de PPTP, le composant de RAS permettant d'établir des réseaux privés virtuels. Les hotfixes de Microsoft corrigent-ils les lacunes de PPTP ? Les premiers grondements éloignés, annonciateurs de l'orage, se sont manifestés en avril 1998, quand les utilisateurs ont posé des questions sur la sécurité de PPTP dans les forums de sécurité. Ces questions étaient généralement suivies par des descriptions d'éventuelles vulnérabilités des réseaux privés virtuels (VPN pour Virtual Private Network).
En juin 1998, Counterpane Systems a sorti " Cryptanalysis Microsoft's Point-to-Point Tunneling Protocol " (http://www.counterpane.com/pptppaper.html), une analyse formelle démontrant les vulnérabilités de PPTP. Quelque temps plus tard, L0pht Heavy Industries, (http://www.L0pht.com) a sorti Readsmb (qui accompagne L0phtCrack 2.0), un programme renifleur capable de déduire les mots de passe d'utilisateurs à  partir des questions/réponses traversant la plupart des réseaux NT. (Pour en savoir plus sur Readsmb, voir l'article " Protégez vos mots de passe " de décembre 1998).
Au moment où la communauté de la sécurité révélait ces vulnérabilités, Microsoft était en train de développer les mises à  jour de la spécification PPTP et les versions du code consécutives. En août 1998, Microsoft a sorti trois corrections pour PPTP et d'autres mises à  jour de DUN.

Les utilisateurs et les hackers ont révélé plusieurs faiblesses de PPTP compromettant la sécurité du système

L'an dernier, on a eu beaucoup de mal à  suivre l'évolution des choses tant la confusion était grande entre les déclarations des hackers et les réponses de Microsoft. La question de la sécurité de PPTP reste donc d'actualité. Pour répondre à  cette question, je vais détailler les faiblesses de PPTP et expliquer comment Microsoft a réussi à  les corriger avec les améliorations successives de la mise à  jour PPTP3. J'indiquerai aussi où trouver les améliorations de sécurité de Microsoft.

Lire l'article
Le top 10 des commandes batch

Le top 10 des commandes batch

Le Kit de ressources de Windows NT Server 4.0 comporte de nombreuses commandes batch. Cer article liste les dix commandes que j'utilise le plus. Il n'a pas été facile de ne choisir que dix commandes parmi les nombreux utilitaires du Kit de ressources.

Lire l'article
Bâtir des routages IP redondants

Bâtir des routages IP redondants

Le succès du commerce électronique repose largement sur le routage IP, qui achemine les informations de l'e-business d'une entreprise à  l'autre. Sans mécanisme de routage IP redondant et à  tolérance de panne, l'e-business d'une entreprise ne peut pas survivre aux désastres (ouragans, inondations, panne d'alimentation, interruptions de connexions Internet, défaillances hardware…), parce que l'entreprise n'a pas d'autre méthode pour accéder à  l'Internet Pour atteindre et conserver un avantage concurrentiel en commerce électronique, il vous faut intégrer un routage IP redondant dans votre infrastructure Internet. Il existe divers moyens pour cela et l'un des plus courants est d'installer des routeurs et des connexions Internet redondants. La présence de plusieurs routeurs sur un même sous-réseau garantit la disponibilité d'une passerelle vers les serveurs Internet en cas de défaillance de la passerelle par défaut.
De même plusieurs connexions à  divers ISP (c'est-à -dire le multihoming) permettent de disposer d'itinéraires de substitution vers l'Internet, en cas de panne d'une liaison Internet ou d'un routeur.
Avant même l'expansion du commerce électronique, l'IETF (Internet Engineering Task Force) avait mis au point plusieurs protocoles Internet pour le routage IP redondant. Il s'agit du protocole FIRP (Fault Isolation and Recovery Protocol), qui détecte les passerelles qui ne fonctionnent plus et supporte plusieurs passerelles par défaut ; IRDP (Internet Router Discovery Protocol) ; VRRP (Virtual Router Redundancy Protocol) et BGP (Border Gateway Protocol). FIRP, IRDP et VRRP servent à  créer la redondance des routeurs locaux et BGP la redondance des routeurs Internet. Windows 2000 et Windows NT 4.0 supportent FIRP et IRDP, et de nombreux produits d'exploitation et de routage Internet supportent IRDP, VRRP et BGP.
Pour inclure la fonctionnalité de routage IP redondant dans une infrastructure de commerce électronique, il est indispensable de bien comprendre les bases du fonctionnement de ces protocoles dans les configurations de routage IP redondantes.

Lire l'article
Votre boutique d’e-commerce sécurisée avec SBS et Site Server

Votre boutique d’e-commerce sécurisée avec SBS et Site Server

Microsoft Small Business Server (SBS) est un produit de choix non seulement pour les besoins de gestion des petites entreprises, mais aussi pour leurs sites Web de commerce électronique. Douze étapes pour construire votre boutique en ligne avec SBS et Microsoft Site Server 3.0 Commerce Edition. Microsoft a développé Site Server en le destinant principalement à  des installations sur plate-forme BackOffice complète. Mais pour beaucoup de petites entreprises, utiliser seulement SBS et Site Server - plutôt que d'installer la solution BackOffice complète - est une idée séduisante. SBS et Site Server associés fournissent la majeure partie des fonctionnalités de BackOffice sans en atteindre le coût. Cependant, si SBS et Site Server sont faciles à  installer et à  configurer, le processus garantissant la sécurité de leur fonctionnement sur l'Internet n'est pas si simple.Cet article liste les étapes à  respecter pour installer SBS, Site Server et les composants supplémentaires nécessaires pour sécuriser une solution de commerce électronique. Si vous suivez cette démarche, vous aurez une installation d'e-commerce SBS correctement sécurisée.

Lire l'article
Les performances d’Exchange 2000

Les performances d’Exchange 2000

Les caractéristiques de performances de Microsoft Exchange Server 5.5 sont bien connues. En 1996, Exchange Server 4.0 a posé ses principes de base : atteindre des performances optimales grâce à  la distribution des fichiers et depuis, pas grand-chose n'a changé. Microsoft a bien étendu la capacité de l'Information Store (IS) jusqu'à  la limite théorique de 16 To, mais le serveur de messagerie conserve ses caractéristiques essentielles. Dans Exchange Server, les points névralgiques, c'est-à -dire les fichiers générant la plus lourde charge d'E/S, sont les bases de données de l'IS et du Directory Store, leurs journaux de transactions, la copie sur disques de Windows NT et le répertoire de travail MTA (Message Transfer Agent).

Exchange 2000 Server est d'un tout autre acabit. Le nouveau serveur de messagerie bénéficie des améliorations suivantes :

* L'architecture de l'IS a nettement évolué, passant du simple partitionnement de bases de données privées et publiques à  un point où elle permet, théoriquement, d'exécuter jusqu'à  90 bases de données sur un seul serveur.

* Microsoft IIS (Internet Information Server) traite tous les accès de protocoles pour SMTP, IMAP4 (Internet Message Access Protocol), HTTP, NNTP (Network News Transfer Protocol) et POP3, et joue donc un rôle plus important pour Exchange 2000 que pour les précédentes versions d'Exchange Server.

* Une nouvelle base de données déroulante peut contenir le contenu Internet natif.

* Active Directory (AD) de Windows 2000 remplace le Directory Store.

* Un nouveau moteur de routage et de mise en file d'attente, basé sur SMTP, remplace l'ancien MTA basé sur X.400.

Ces améliorations font partie d'une solution customisable que les solutions tierces étendront vraisemblablement pour doter Exchange 2000 de fonctions telles que antivirus, fax, workflow, gestion de documents et autres fonctions qui ne font pas partie du serveur de base.
Exchange 2000 apporte d'importants changements architecturaux affectant considérablement les performances. Les concepteurs de systèmes vont devoir à  présent se poser une question cruciale : comment optimiser au maximum ces nouvelles fonctions en termes de configurations systèmes et matériels.

Pour y répondre, commençons par examiner le partitionnement de l'IS d'Exchange 2000.Exchange 2000 apporte d'importants changements architecturaux affectant considérablement les performances

Lire l'article
Thorn Europhane : ERP et Terminal Server au centre du nouveau SI

Thorn Europhane : ERP et Terminal Server au centre du nouveau SI

Pour bâtir son nouveau système d'information multisite, le groupe Thorn a opté pour la mise en place de l'ERP Baan. Les problèmes de communications de données entre les filiales ont pu être résolus grâce à  l'architecture Terminal Server/Metaframe.La décision de mettre en oeuvre une informatique de gestion commune au niveau du groupe Thorn est née il y a trois ans, et répondait à  une double contrainte. D'une part, les difficultés de consolidations de chiffres, et d'autres parts les problèmes de communication entre les différentes filiales, au sein d'environnements informatiques très hétérogènes. " Il devenait primordial de mettre en oeuvre un modèle de gestion plus cohérent au niveau du groupe, de rationaliser les systèmes d'informations des différentes filiales, et faire en sorte qu'ils passent le cap de l'an 2000. " explique Gérard L'hote, directeur administratif et financier chez Thorn Europhane. C'est le progiciel de gestion intégré Baan qui sera retenu, après la phase de Business Re Engineering, pour supporter une rénovation complète du système d'information de l'entreprise : de la gestion comptable, financière, commerciale, à  la gestion de production. " Nous avons fait le choix de l'ERP Baan car c'était alors, le seul produit du marché susceptible de nous aider à  bâtir un système d'information multisite transfrontières, en nous apportant une réponse métier adaptée à  notre problématique de GPAO. " souligne Gérard L'hote. Quant à  l'intégrateur Origin, il sera chargé de la mise en oeuvre complète de l'ERP. " Origin est aujourd'hui le premier intégrateur Baan sur le marché, mais c'est aussi la seule société de services capable d'apporter une réponse internationale à  notre problématique d'implémentation. " précise Gérard L'hote.

A partir du mois de juin 1998, un modèle commun d'implémentation a été choisi pour l'ensemble des pays concernés (Angleterre, Suède, France et Allemagne). A charge de ces filiales, d'adapter ensuite la solution à  leurs besoins propres de gestion, via des personnalisations et des développements spécifiques.

" L'architecture AS400 nous posait de gros problèmes de communications entre sites à  cause du protocole SNA "

Basée en Angleterre, l'usine de production de Spennymoor sera la première à  finaliser la mise en oeuvre de la gestion de production. Elle sera suivie par son homologue allemande, qui optera pour une démarche Big Bang du fait de sa configuration multisite. La France vient quant à  elle de terminer l'implémentation de la solution par la mise en oeuvre du dernier module de gestion commerciale.

Lire l'article
Administrer les variables d’environnement de Windows NT

Administrer les variables d’environnement de Windows NT

Dans les groupes de discussion, reviennent fréquemment des questions sur les variables d'environnement. Les administrateurs Windows NT ont souvent du mal à  accéder aux informations stockées par ces variables. Pour définir et lire des variables d'environnement sur les machines NT il existe plusieurs techniques. Cet article explique comment un administrateur NT expérimenté peut gérer des variables système et utilisateur avec les utilitaires du Kit de ressources de Windows NT Server 4.0, des fichiers batch et des applications VBScript (Visual Basic).

Lire l'article
XML et les technologies de scripting de Microsoft

XML et les technologies de scripting de Microsoft

Il y a un peu plus d'un an, interrogé sur l'impact qu'allait avoir XML sur les technologies de script de Windows, j'avais répondu que XML allait certainement jouer un rôle crucial pour le développement des applications Web, mais qu'il n'affecterait pas l'univers des scripts d'administration de systèmes. Or Windows Scripting Host 2.0 m'a donné tort. Egalement baptisé Windows Script 5.1, Windows Scripting Host 2.0 (WSH) comporte de nouvelles fonctions puissantes dépendant d'un nouveau type de fichier et d'un nouveau format. Vous voulez savoir quel type de fichier ? Alors, suivez-moi. WSH 2.0 comprend de nouvelles fonctions telles que, par exemple, le support des fichiers inclus, plusieurs moteurs de script, de nouveaux outils. Parmi ces nouvelles fonctions, plusieurs dépendent du nouveau format de fichier Windows Script (WS). Les fichiers WS de WSH 2.0 ne sont pas de simples fichiers ASCII contenant du code VBScript, Jscript ou d'autres langages de script compatibles ActiveX. Ce sont des applications XML (Extensible Markup Language) structurées par Microsoft selon le schéma WS XML. Le nouveau type de fichier et le nouveau format créent un cadre d'écriture de script amélioré et puissant. Examinons le schéma WS XML et les nouvelles fonctions qu'il apporte.

Lire l'article
Naviguer dans la résolution de noms 2ème Partie

Naviguer dans la résolution de noms 2ème Partie

Même les administrateurs Windows NT les plus chevronnés ne maîtrisent pas parfaitement le processus de résolution des noms des réseaux Windows. On ne saurait le leur reprocher. Qui pourrait s'y retrouver dans ce monde truffé de standards de serveurs de noms, d'ordres de résolution de clients modifiables, de serveurs WINS auto-destructeurs, de service packs et de correctifs modifiant la résolution des noms et d'une avalanche d'articles Microsoft contradictoires. Le seul espoir si l'on veut maîtriser la résolution de noms Windows est de comprendre la méthodologie sous-jacente pour pouvoir régler les problèmes lorsqu'ils surviennent sur un réseau. (Dans l'article " Naviguer dans la résolution de noms, Partie 1 " de septembre 2000, nous avons vu les bases de la résolution des noms, décrit les causes cachées et les malentendus communs liés à  la résolution des noms et proposé un certain nombre de solutions pour des situations spécifiques). J'ai trouvé quelques solutions pour atténuer les malheurs de la résolution des noms.

Lire l'article