NT versus Linux : les trois avantages de Linux
Les nouveaux OS m'ont toujours fasciné. J'adore les essayer, en espérant en trouver
un qui soit fiable, souple et compatible. Au cours des 20 dernières années, j'ai
utilisé de nombreux OS et aucun n'a répondu à toutes mes attentes.
Depuis 20 ans que j'essaie de nouveaux systèmes d'exploitation, j'ai eu l'occasion
d'en utiliser plus d'un. J'ai ainsi pu tester notamment CP/M de Digital Research
et ses successeurs CP/M-86 et MP/M ; TRSDOS, l'OS des systèmes TRS-80 ; TOS de
l'Atari 520 ; GEM d'Amiga ; P-System de l'Université de Californie de San Diego
(une première approche de type Java de l'indépendance vis à vis de la machine)
; WM/386 d'IGC, Microsoft Windows/386 et DesQ de Quarterdeck (trois tentatives
de construire un OS DOS multitâche) ; IBM OS/2 ; VINES de Banyan ; Novell NetWare
; et, bien sur, Windows NT.
Aucun de ces OS ne m'a apporté toutes les fonctions que je recherchais. Certains
ont échoué à cause de limites techniques, d'autres ont pâti d'un manque de reconnaissance
du marché.
Dans certains cas, pour les deux raisons. Linux est le dernier en date des OS
à fort potentiel. Linus Torvalds a créé ce système proche d'UNIX en 1991 alors
qu'il était étudiant, et des milliers d'autres programmeurs l'ont enrichi depuis.
Une des raisons de l'attention et de l'intérêt suscité par Linux au cours des
2 dernières années et que tant de gens ont donné de leur temps pour travailler
sur cet OS (autrement dit, peut de développeurs de Linux sont payés pour leur
effort).
J'ai beaucoup appris sur Linux récemment car je prépare un livre destiné aux experts
NT afin de leur faire découvrir ce qu'est Linux, ce qu'il peut faire et comment
il peut faciliter la vie des administrateurs NT.
Parmi les forces de Linux que j'ai découvertes : sa capacité à opérer en tant
que serveur sans nécessiter d'interface graphique, ses outils intégrés puissants
et sa nature contrôlable à distance. Les interface graphiques consomment les ressources
de la machine, privant le système de mémoire et de CPU au détriment des applications
Réplication bidirectionnelle avec SQL Server 7.0
par Baya Pavliashvili
Les éditeurs convertis en abonnés et les abonnés convertis à leur tour en éditeurs
Les fonctions avancées de réplication de SQL Server permettent de synchroniser
les données de plusieurs bases de données, que celles-ci résident sur le même
serveur ou non. Mais pourquoi pas simplement sauvegarder les bases de données
et les restaurer ensuite sur un autre serveur, ou utiliser DTS (Data Transformation
Services) pour transférer les tables et données ? Si on travaille sur des bases
de données accessibles uniquement en lecture, ces techniques conviennent parfaitement.
Mais qu'en est-il si on a une base de données transactionnelle (OLTP) de grande
taille (100 Go ou plus) gérant une centaine de transactions ou plus par minute
? Ou alors, que faire si on a plus de 1.000 utilisateurs exécutant des instructions
Select, Insert, Update et Delete au moins 8 heures par jour ? Dans ce contexte,
effectuer des sauvegardes suivies de restaurations toutes les 10 minutes (ce qui
aurait pour effet de verrouiller les tables et déclencher des appels d'utilisateurs
irrités) est inacceptable. En outre, l'utilisation de DTS ou de bcp (bulk copy
program) pour transférer autant d'informations à chaque fois que l'on souhaite
synchroniser des bases de données n'est pas viable ; le transfert nécessiterait
beaucoup trop de temps.
Même si la réplication n'accélère pas le transfert des données, elle permet cependant,
d'effectuer ce dernier d'un serveur à un autre en une seule opération, puis de
répercuter les modifications sur les autres bases de données. En d'autres termes,
la réplication peut représenter la solution idéale pour transférer des données
si on recherche un juste milieu entre la propagation des données sur différentes
machines et la disponibilité de ces mêmes données.
SQL Server 7.0 passe à la vitesse supérieure en matière de réplication
et de facilité d'emploi
SQL Server 6.0 a apporté le support de la réplication, et SQL Server 6.5 a
rajouté des améliorations mineures. Pour sa part, SQL Server 7.0 passe à la vitesse
supérieure en matière de réplication et de facilité d'emploi. En effet, SQL Server
7.0 va bien au delà d'une photographie instantanée des données et de la réplication
transactionnelle standard pour supporter la réplication bidirectionnelle (ou un
abonnement avec mise à jour instantanée) et la réplication par fusion. Cette version
permet également de répliquer des données de et vers des plates-formes non SQL.
De plus, SQL Server 7.0 automatise toutes les tâches de réplication, permettant
ainsi aux administrateurs de configurer et d'administrer la réplication à l'aide
d'assistants, sans écrire une seule procédure cataloguée. A travers les assistants
de réplication, il est même possible de paramétrer SQL Server de manière à écrire
des tâches de nettoyage et d'informer les administrateurs des éventuelles erreurs
par courrier électronique ou pager. Passons en revue les assistants de SQL Server
7.0 en vue de configurer un exemple de solution de réplication avec mise à jour
immédiate. Examinons ensuite, l'action de SQL Server en coulisses pour implémenter
cette solution et pour finir, testons la solution proposée.
Comment tout savoir sur SQL Server 2000
La nouvelle version atteint de nouveaux sommets
Remarque : Les auteurs ont basé leurs articles SQL Server 2000 sur des versions
antérieures à la Bêta 2. Aussi, il se peut que vous remarquiez quelques différences
entre la Bêta 2 et le comportement ou les interfaces décrits dans cet article.
En particulier, veuillez noter que la fonction vues indexées ne sera disponible
que dans SQL Server 2000 Enterprise Edition. Toutefois, on peut installer Entreprise
Edition sur un serveur NT 4 ou Windows 2000 (W2K). On n'est pas obligé d'utiliser
NT 4.0 Enterprise ou W2K Advanced Server.
Imaginez que vous ayez la possibilité de construire la maison de vos rêves, dans
laquelle vous projetez d'élever vos enfants au cours des 20 prochaines années.
L'argent n'est pas un problème, mais vous voulez emménager le plus tôt possible.
Dans ce cas, vous allez être obligé de faire des concessions, et de choisir entre
avoir une maison parfaitement aménagée avant d'y habiter et pouvoir y emménager
le plus tôt possible. Vous allez passer du temps à concevoir soigneusement les
pièces principales de la maison, sachant que vous pourrez toujours terminer le
sous-sol ou rajouter une grande terrasse après avoir emménagé. Comparons ce processus
à la construction de SQL Server.
Il y a plusieurs années, Microsoft a regroupé les meilleurs spécialistes de la
conception des bases de données à travers le monde (internes et externes à Microsoft)
et leur a demandé de bâtir la base de données de leurs rêves. Considérez SQL Server
7.0 comme le résultat fondamental de ces efforts. SQL Server 7.0 est une réécriture
importante du code de base, mais les administrateurs de bases données et les développeurs
ne pouvaient pas voir ni toucher beaucoup de ces améliorations. En effet, SQL
Server 7.0 apporte une kyrielle de nouvelles fonctionnalités importantes (comme
les services OLAP). Mais une grande partie du réingéneering du noyau se situe
au niveau de la gestion des pages et de la mémoire. Pour la première fois en Octobre
1999, j'ai vu SQL Server 2000 lors de la conférence MVP (Most Valuable Professional)
de Microsoft.
Les premiers séminaires couvraient l'architecture interne des moteurs relationnels
et de la mémoire, et je suis reparti avec le sentiment très fort que SQL Server
2000 s'appuie sur les fondations de SQL Server 7.0 et y rajoute "la plomberie
et l'électricité". A bien des égards, SQL Server 2000 ressemble à ce sous-sol
terminé, cette énorme terrasse et ce studio de projection personnel dont vous
avez toujours rêvé.
Il peut désormais rivaliser d'égal à égal avec n'importe quelle plate-forme
de base de données concurrentes
Optimiser NT et IIS pour les pages ASP
Les pages actives ASP sont utilisées par de nombreuses entreprises, d'Internet aux intranets d'entreprise et de nombreux administrateurs système choisissent Windows NT Server et Internet Information Server pour les faire tourner. Cependant, Windows NT et IIS doivent être optimisés pour offrir de bonnes performances.
Si vous voulez tirer le meilleur des applications ASP (Active Server Pages), vous
rencontrerez le succès en configurant Windows NT Server pour en faire une plate-forme
efficace pour Internet Information Server (IIS) et en faisant quelques modifications
simples mais essentielles à la configuration d'IIS afin qu'il aide vos serveurs
à fonctionner de façon optimale.
Souvenez-vous qu'il vous faut tester vos applications et optimiser l'environnement
de votre serveur à mesure que vous faites les changements. Faites une check-list
des paramètres de vos serveurs afin d'être sûr que vous avez configuré chaque
serveur correctement. Automatisez l'installation de vos serveurs autant que vous
le pouvez pour configurer les serveurs rapidement et sans risque d'erreur.
Si tous vos serveurs ont la même configuration matérielle, vous pouvez envisager
d'utiliser Norton Ghost, ou tout autre utilitaire équivalent de réplication automatique,
pour installer vos nouveaux serveurs. Si vous utilisez un utilitaire pour répliquer
les serveurs, assurez-vous que l'utilitaire vous permet de créer un SID pour chaque
serveur.
En outre, testez le processus de réplication sur un seul système avant de créer
plusieurs serveurs. Personne ne veut répliquer un système dont les applications
sont mal paramétrées. Il est possible également que vous rencontriez des problèmes
avec la métabase d'IIS sur les systèmes répliqués si le SID change. Si de tels
problèmes devaient survenir, vous pourriez devoir réinstaller IIS sur la machine
concernée.
Les 7 étapes vers le data warehouse
Les data warehouses sont un rêve pour les analystes : toute l'information concernant
les activités de l'entreprise est regroupée en un seul lieu et prête à être utilisée
par un ensemble cohérent d'outils d'analyse. Mais comment transformer le rêve
en réalité ?
Pour atteindre ce Nirvana des décideurs qu'est le data warehouse, il faut tout
d'abord bien penser le système. Vous devez comprendre le type de questions que
les utilisateurs vont lui poser (par exemple, combien de nouveaux clients par
trimestre ou quel segment de marché achète le plus d'environnements de développement
d'applications dans la région Ouest) car la raison d'être des systèmes de data
warehouse est de fournir aux décideurs l'information adaptée et à jour dont ils
ont besoin pour faire les bons choix.
Pour illustrer le processus, nous utiliserons un data warehouse créé pour une
société imaginaire fournissant des logiciels de développement d'applications,
du consulting, du personnel en délégation et des formations. Le marché évolue
très rapidement pour la société. Ses dirigeants ont donc besoin de savoir quels
ajustements dans leur modèle économique et leurs méthodes commerciales ils doivent
faire pour permettre à l'entreprise de poursuivre sa croissance. Pour aider la
société, nous avons travaillé avec l'encadrement supérieur pour concevoir une
solution.
Tout d'abord, nous avons déterminé les objectifs de l'entreprise pour ce nouveau
système. Ensuite, nous avons collecté et analysé des informations que la société.
Nous avons identifié les processus fondamentaux que l'entreprise devait surveiller
et construit un modèle conceptuel des données. Puis, nous avons situé les sources
de données et prévu les transformations nécessaires à leur appliquer. Enfin, nous
avons fixé la durée de conservation des données.
Trois façons de maigrir
Dans notre numéro de mai 1998, nous avions testé les beta 1 de Terminal Server et de MetaFrame de Citrix Systems ainsi que la MaxStation de Maxspeed pour l'article " Enfants de l'Hydre ". Depuis, les environnement NT multiutilisateurs ont évolué. Voici donc les pages " minceur " que tout bon magazine se doit de proposer pour l'été.
Lire l'articleMesurer et administrer les performances des applications NT Workstation
Quand il s'agit d'obtenir des performances maximales de Windows NT Workstation 4.0, la première chose qui vient à l'esprit est qu'il suffit d'éliminer le shell de l'explorateur, d'utiliser une interface d'invite de commandes et de ne pas exécuter ces fichues applications graphiques. Moyennant quoi NT Workstation va décoller. C'est ce que j'appelle la " mentalité table rase ", d'ailleurs répandue chez les disciples d'UNIX, persuadés, parfois non sans raison, que les applications graphiques sont cause de ralentissement. En fait, les performances du noyau de Windows NT n'ont aucune importance, puisque Windows NT Workstation fonctionne dans un environnement graphique et exécute des applications graphiques. Dans la plupart des cas, on ne peut pas désactiver le shell de l'Explorateur Windows sans invalider la fonctionnalité du système. Il est donc temps de réexaminer d'un oeil neuf comment mesurer et gérer les performances des postes de travail Windows NT afin de profiter au maximum de cet investissement. Pour commencer, les compteurs de l'analyseur de performances permettent d'identifier les applications posant des problèmes, ce qui est un point de départ très utile. Par ailleurs, certains utilitaires du Kit de ressources de Windows NT Workstation 4.0 aident à mesurer et à surveiller les problèmes de performances.
Lire l'articleUne nouvelle étape pour le groupe RMH
La récente fusion des groupes TMA et RMH est l'occasion pour RMH de présenter sa nouvelle organisation.
Lire l'articleLe Triangle d’Or
par Samy Mosimann Dans le monde de la banque privée, la place de l'AS/400 reste prépondérante, avec un facteur de 1 à 8 par rapport au nombre d'installations Unix Genève, Zurich et Luxembourg sont les trois sommets du triangle d'or de l'activité bancaire privée en Europe. Ces banques sont des établissements qui ne se comparent pas aux grandes banques nationales ou publiques européennes. Elles sont moins importantes et emploient de moins de 40 à plus de 500 employés. Globalement, on peut estimer qu'environ 1000 banques sont en activité dans ce domaine en Suisse et au Luxembourg.
Lire l'articleGérer la charge des serveurs Web
Au fur et à mesure du développement du commerce électronique, les entreprises
sont de plus en plus nombreuses à compter sur leurs sites Web pour communiquer
avec les clients. Un site Web très performant, délivrant rapidement et en toute
fiabilité du contenu, accroît sa clientèle, la fidélise et joue un rôle crucial
pour un commerce électronique prospère et compétitif.
Les clients potentiels ne seront pas enclins à retourner sur un site Web, s'ils
sont frustrés par sa lenteur et se heurtent à des retards importants ou à des
défaillances. Ainsi, dans le cadre de la planification et de la mise en oeuvre
de l'infrastructure Web d'une entreprise, il faut prendre en compte sérieusement
l'amélioration des performances de son site Web.
Il existe plusieurs méthodes pour améliorer les performances du Web : augmenter
la bande passante Internet, utiliser un équipement de réseau rapide, concevoir
des applications Web efficaces, optimiser et mettre à niveau les logiciels et
les matériels des serveurs Web, et utiliser une technologie de Web-caching.
Il est également possible d'améliorer les performances d'un site Web en ajoutant
des serveurs Web et des sites et en mettant en miroir le contenu entre tous les
serveurs et les sites. Cette méthode permet de partager la charge globale entre
les serveurs et les sites et de réduire le retard d'exécution des informations,
occasionné par le traitement interne des requêtes des clients d'un serveur.
Elle permet, en outre, de conserver des serveurs existants plutôt que de les éliminer
pour faire de la place à de nouveaux serveurs.
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger
un seul serveur avec le trafic du Web, alors que d'autres restent inactifs. Pour
équilibrer la charge entre les serveurs Web, on fait traditionnellement appel
à la fonction " à tour de rôle " du DNS qui permet de distribuer équitablement
les adresses IP des serveurs Web entre les clients ; ainsi, les serveurs Web sont
tous accessibles à égalité.
Mais ce mécanisme ne permet pas d'équilibrer la charge dans un environnement où
les serveurs Web ont différentes capacités matérielles et logicielles. Par exemple,
un système Windows 2000 Server avec deux processeurs Pentium III à 450 MHz et
2 Go de mémoire devrait traiter plus de charge dans un environnement à équilibrage
de charge qu'un système Windows NT Server avec un processeur Pentium II à 300
MHz et 256 Mo de mémoire.
Or la fonction " à tour de rôle " de DNS traite ces deux systèmes à égalité ;
elle ignore la disponibilité d'un serveur Web, parce qu'elle ne détecte pas si
le serveur est en marche ou arrêté.
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger
un seul serveur avec le trafic du Web, alors que d'autres restent inactifsRécemment,
des éditeurs indépendants ont développé des load balancers ou équilibreurs de
charge, c'est-à -dire des produits permettant d'équilibrer la charge uniformément
entre plusieurs serveurs et garantissant en outre la tolérance aux pannes des
serveurs Web en redirigeant le trafic et les clients vers un autre serveur ou
site en cas de défaillance.
Ainsi, les clients subissent moins de retards et de pannes. Les équilibreurs de
charge peuvent s'utiliser dans des scénarios monosite ou multisite Web. Qu'est-ce
qu'un équilibreur de charge, comment fonctionne-t-il ? Autant de questions importantes
à prendre en considération avant de faire son choix.
SQL Server 2000 : vers les sommets
Imaginez que vous pouvez construire la maison de vos rêves. Pas de problème de
budget, mais vous voulez emménager le plus vite possible. Dans ce cas, il vous
faudra choisir entre avoir la perfection avant d'emménager et prendre possession
de la maison le plus vite possible. Vous prendrez probablement du temps pour concevoir
les fondations et les pièces essentielles, quitte à ajouter une aile ou à aménager
les combles par la suite.
Le processus d'évolution de SQL Server ressemble un peu à la construction de cette
maison. Il y a plusieurs années, Microsoft a réuni plusieurs des meilleurs spécialistes
mondiaux des bases de données (de Microsoft et d'ailleurs) et leur a demandé de
créer la base de données de leurs rêves. On peut considérer SQL Server 7.0 comme
les fondations de ce projet.
Le code de SQL Server 7.0 comportait des évolutions majeures par rapport au code
de base mais les DBA et les développeurs ne pouvaient pas voir ou utiliser de
nombreuses améliorations. Microsoft SQL Server 7.0 comportait de nombreuses améliorations
visibles (telles que les services OLAP), mais la plupart des efforts de reengineering
se situait au niveau de la page ou du stockage. J'ai découvert SQL Server 2000
à la conférence SQL Server Most Valuable Professional (MVP) de Microsoft en octobre
dernier.
Les premiers briefings portaient principalement sur l'architecture interne et
je suis reparti avec un tuyau important : SQL Server 2000 s'appuie sur les fondations
de SQL Server 7.0 et rénove une partie de la plomberie et du réseau électrique.
En fait, à bien des égards, SQL Server 2000 c'est la maison terminée, la grande
extension et les salles de projection privées dont vous avez toujours révées.
PPTP est-il sûr ?
Ces dernières années, les utilisateurs et les hackers ont révélé de sérieux défauts
dans l'implémentation par Microsoft de PPTP, le composant de RAS permettant d'établir
des réseaux privés virtuels. Les hotfixes de Microsoft corrigent-ils les lacunes
de PPTP ?
Les premiers grondements éloignés, annonciateurs de l'orage, se sont manifestés
en avril 1998, quand les utilisateurs ont posé des questions sur la sécurité de
PPTP dans les forums de sécurité. Ces questions étaient généralement suivies par
des descriptions d'éventuelles vulnérabilités des réseaux privés virtuels (VPN
pour Virtual Private Network).
En juin 1998, Counterpane Systems a sorti " Cryptanalysis Microsoft's Point-to-Point
Tunneling Protocol " (http://www.counterpane.com/pptppaper.html),
une analyse formelle démontrant les vulnérabilités de PPTP. Quelque temps plus
tard, L0pht Heavy Industries, (http://www.L0pht.com)
a sorti Readsmb (qui accompagne L0phtCrack 2.0), un programme renifleur capable
de déduire les mots de passe d'utilisateurs à partir des questions/réponses traversant
la plupart des réseaux NT. (Pour en savoir plus sur Readsmb, voir l'article "
Protégez vos mots de passe " de décembre 1998).
Au moment où la communauté de la sécurité révélait ces vulnérabilités, Microsoft
était en train de développer les mises à jour de la spécification PPTP et les
versions du code consécutives. En août 1998, Microsoft a sorti trois corrections
pour PPTP et d'autres mises à jour de DUN.
Les utilisateurs et les hackers ont révélé plusieurs faiblesses de PPTP compromettant
la sécurité du système
L'an dernier, on a eu beaucoup de mal à suivre l'évolution des choses tant
la confusion était grande entre les déclarations des hackers et les réponses de
Microsoft. La question de la sécurité de PPTP reste donc d'actualité. Pour répondre
à cette question, je vais détailler les faiblesses de PPTP et expliquer comment
Microsoft a réussi à les corriger avec les améliorations successives de la mise
à jour PPTP3. J'indiquerai aussi où trouver les améliorations de sécurité de Microsoft.
Le top 10 des commandes batch
Le Kit de ressources de Windows NT Server 4.0 comporte de nombreuses commandes batch. Cer article liste les dix commandes que j'utilise le plus. Il n'a pas été facile de ne choisir que dix commandes parmi les nombreux utilitaires du Kit de ressources.
Lire l'articleBâtir des routages IP redondants
Le succès du commerce électronique repose largement sur le routage IP, qui achemine
les informations de l'e-business d'une entreprise à l'autre. Sans mécanisme de
routage IP redondant et à tolérance de panne, l'e-business d'une entreprise ne
peut pas survivre aux désastres (ouragans, inondations, panne d'alimentation,
interruptions de connexions Internet, défaillances hardware…), parce que l'entreprise
n'a pas d'autre méthode pour accéder à l'Internet
Pour atteindre et conserver un avantage concurrentiel en commerce électronique,
il vous faut intégrer un routage IP redondant dans votre infrastructure Internet.
Il existe divers moyens pour cela et l'un des plus courants est d'installer des
routeurs et des connexions Internet redondants. La présence de plusieurs routeurs
sur un même sous-réseau garantit la disponibilité d'une passerelle vers les serveurs
Internet en cas de défaillance de la passerelle par défaut.
De même plusieurs connexions à divers ISP (c'est-à -dire le multihoming) permettent
de disposer d'itinéraires de substitution vers l'Internet, en cas de panne d'une
liaison Internet ou d'un routeur.
Avant même l'expansion du commerce électronique, l'IETF (Internet Engineering
Task Force) avait mis au point plusieurs protocoles Internet pour le routage IP
redondant. Il s'agit du protocole FIRP (Fault Isolation and Recovery Protocol),
qui détecte les passerelles qui ne fonctionnent plus et supporte plusieurs passerelles
par défaut ; IRDP (Internet Router Discovery Protocol) ; VRRP (Virtual Router
Redundancy Protocol) et BGP (Border Gateway Protocol). FIRP, IRDP et VRRP servent
à créer la redondance des routeurs locaux et BGP la redondance des routeurs Internet.
Windows 2000 et Windows NT 4.0 supportent FIRP et IRDP, et de nombreux produits
d'exploitation et de routage Internet supportent IRDP, VRRP et BGP.
Pour inclure la fonctionnalité de routage IP redondant dans une infrastructure
de commerce électronique, il est indispensable de bien comprendre les bases du
fonctionnement de ces protocoles dans les configurations de routage IP redondantes.
Votre boutique d’e-commerce sécurisée avec SBS et Site Server
Microsoft Small Business Server (SBS) est un produit de choix non seulement pour les besoins de gestion des petites entreprises, mais aussi pour leurs sites Web de commerce électronique. Douze étapes pour construire votre boutique en ligne avec SBS et Microsoft Site Server 3.0 Commerce Edition. Microsoft a développé Site Server en le destinant principalement à des installations sur plate-forme BackOffice complète. Mais pour beaucoup de petites entreprises, utiliser seulement SBS et Site Server - plutôt que d'installer la solution BackOffice complète - est une idée séduisante. SBS et Site Server associés fournissent la majeure partie des fonctionnalités de BackOffice sans en atteindre le coût. Cependant, si SBS et Site Server sont faciles à installer et à configurer, le processus garantissant la sécurité de leur fonctionnement sur l'Internet n'est pas si simple.Cet article liste les étapes à respecter pour installer SBS, Site Server et les composants supplémentaires nécessaires pour sécuriser une solution de commerce électronique. Si vous suivez cette démarche, vous aurez une installation d'e-commerce SBS correctement sécurisée.
Lire l'articleLes performances d’Exchange 2000
Les caractéristiques de performances de Microsoft Exchange Server 5.5 sont bien
connues. En 1996, Exchange Server 4.0 a posé ses principes de base : atteindre
des performances optimales grâce à la distribution des fichiers et depuis, pas
grand-chose n'a changé. Microsoft a bien étendu la capacité de l'Information Store
(IS) jusqu'à la limite théorique de 16 To, mais le serveur de messagerie conserve
ses caractéristiques essentielles.
Dans Exchange Server, les points névralgiques, c'est-à -dire les fichiers générant
la plus lourde charge d'E/S, sont les bases de données de l'IS et du Directory
Store, leurs journaux de transactions, la copie sur disques de Windows NT et le
répertoire de travail MTA (Message Transfer Agent).
Exchange 2000 Server est d'un tout autre acabit. Le nouveau serveur de messagerie
bénéficie des améliorations suivantes :
* L'architecture de l'IS a nettement évolué, passant du simple partitionnement
de bases de données privées et publiques à un point où elle permet, théoriquement,
d'exécuter jusqu'à 90 bases de données sur un seul serveur.
* Microsoft IIS (Internet Information Server) traite tous les accès de protocoles
pour SMTP, IMAP4 (Internet Message Access Protocol), HTTP, NNTP (Network News
Transfer Protocol) et POP3, et joue donc un rôle plus important pour Exchange
2000 que pour les précédentes versions d'Exchange Server.
* Une nouvelle base de données déroulante peut contenir le contenu Internet natif.
* Active Directory (AD) de Windows 2000 remplace le Directory Store.
* Un nouveau moteur de routage et de mise en file d'attente, basé sur SMTP, remplace
l'ancien MTA basé sur X.400.
Ces améliorations font partie d'une solution customisable que les solutions tierces
étendront vraisemblablement pour doter Exchange 2000 de fonctions telles que antivirus,
fax, workflow, gestion de documents et autres fonctions qui ne font pas partie
du serveur de base.
Exchange 2000 apporte d'importants changements architecturaux affectant considérablement
les performances. Les concepteurs de systèmes vont devoir à présent se poser une
question cruciale : comment optimiser au maximum ces nouvelles fonctions en termes
de configurations systèmes et matériels.
Pour y répondre, commençons par examiner le partitionnement de l'IS d'Exchange
2000.Exchange 2000 apporte d'importants changements architecturaux affectant considérablement
les performances
Thorn Europhane : ERP et Terminal Server au centre du nouveau SI
Pour bâtir son nouveau système d'information multisite, le groupe Thorn a opté pour la mise en place de l'ERP Baan. Les problèmes de communications de données entre les filiales ont pu être résolus grâce à l'architecture Terminal Server/Metaframe.La décision de mettre en oeuvre une informatique de gestion commune au niveau du groupe Thorn est née il y a trois ans, et répondait à une double contrainte. D'une part, les difficultés de consolidations de chiffres, et d'autres parts les problèmes de communication entre les différentes filiales, au sein d'environnements informatiques très hétérogènes. " Il devenait primordial de mettre en oeuvre un modèle de gestion plus cohérent au niveau du groupe, de rationaliser les systèmes d'informations des différentes filiales, et faire en sorte qu'ils passent le cap de l'an 2000. " explique Gérard L'hote, directeur administratif et financier chez Thorn Europhane. C'est le progiciel de gestion intégré Baan qui sera retenu, après la phase de Business Re Engineering, pour supporter une rénovation complète du système d'information de l'entreprise : de la gestion comptable, financière, commerciale, à la gestion de production. " Nous avons fait le choix de l'ERP Baan car c'était alors, le seul produit du marché susceptible de nous aider à bâtir un système d'information multisite transfrontières, en nous apportant une réponse métier adaptée à notre problématique de GPAO. " souligne Gérard L'hote. Quant à l'intégrateur Origin, il sera chargé de la mise en oeuvre complète de l'ERP. " Origin est aujourd'hui le premier intégrateur Baan sur le marché, mais c'est aussi la seule société de services capable d'apporter une réponse internationale à notre problématique d'implémentation. " précise Gérard L'hote.
A partir du mois de juin 1998, un modèle commun d'implémentation a été choisi pour l'ensemble des pays concernés (Angleterre, Suède, France et Allemagne). A charge de ces filiales, d'adapter ensuite la solution à leurs besoins propres de gestion, via des personnalisations et des développements spécifiques.
" L'architecture AS400 nous posait de gros problèmes de communications entre sites à cause du protocole SNA "
Basée en Angleterre, l'usine de production de Spennymoor sera la première à finaliser la mise en oeuvre de la gestion de production. Elle sera suivie par son homologue allemande, qui optera pour une démarche Big Bang du fait de sa configuration multisite. La France vient quant à elle de terminer l'implémentation de la solution par la mise en oeuvre du dernier module de gestion commerciale.
Lire l'articleAdministrer les variables d’environnement de Windows NT
Dans les groupes de discussion, reviennent fréquemment des questions sur les variables d'environnement. Les administrateurs Windows NT ont souvent du mal à accéder aux informations stockées par ces variables. Pour définir et lire des variables d'environnement sur les machines NT il existe plusieurs techniques. Cet article explique comment un administrateur NT expérimenté peut gérer des variables système et utilisateur avec les utilitaires du Kit de ressources de Windows NT Server 4.0, des fichiers batch et des applications VBScript (Visual Basic).
Lire l'articleXML et les technologies de scripting de Microsoft
Il y a un peu plus d'un an, interrogé sur l'impact qu'allait avoir XML sur les technologies de script de Windows, j'avais répondu que XML allait certainement jouer un rôle crucial pour le développement des applications Web, mais qu'il n'affecterait pas l'univers des scripts d'administration de systèmes. Or Windows Scripting Host 2.0 m'a donné tort. Egalement baptisé Windows Script 5.1, Windows Scripting Host 2.0 (WSH) comporte de nouvelles fonctions puissantes dépendant d'un nouveau type de fichier et d'un nouveau format. Vous voulez savoir quel type de fichier ? Alors, suivez-moi. WSH 2.0 comprend de nouvelles fonctions telles que, par exemple, le support des fichiers inclus, plusieurs moteurs de script, de nouveaux outils. Parmi ces nouvelles fonctions, plusieurs dépendent du nouveau format de fichier Windows Script (WS). Les fichiers WS de WSH 2.0 ne sont pas de simples fichiers ASCII contenant du code VBScript, Jscript ou d'autres langages de script compatibles ActiveX. Ce sont des applications XML (Extensible Markup Language) structurées par Microsoft selon le schéma WS XML. Le nouveau type de fichier et le nouveau format créent un cadre d'écriture de script amélioré et puissant. Examinons le schéma WS XML et les nouvelles fonctions qu'il apporte.
Lire l'articleNaviguer dans la résolution de noms 2ème Partie
Même les administrateurs Windows NT les plus chevronnés ne maîtrisent pas parfaitement le processus de résolution des noms des réseaux Windows. On ne saurait le leur reprocher. Qui pourrait s'y retrouver dans ce monde truffé de standards de serveurs de noms, d'ordres de résolution de clients modifiables, de serveurs WINS auto-destructeurs, de service packs et de correctifs modifiant la résolution des noms et d'une avalanche d'articles Microsoft contradictoires. Le seul espoir si l'on veut maîtriser la résolution de noms Windows est de comprendre la méthodologie sous-jacente pour pouvoir régler les problèmes lorsqu'ils surviennent sur un réseau. (Dans l'article " Naviguer dans la résolution de noms, Partie 1 " de septembre 2000, nous avons vu les bases de la résolution des noms, décrit les causes cachées et les malentendus communs liés à la résolution des noms et proposé un certain nombre de solutions pour des situations spécifiques). J'ai trouvé quelques solutions pour atténuer les malheurs de la résolution des noms.
Lire l'article