> iTPro.fr
Résolution de problèmes avec SQL Profiler

Résolution de problèmes avec SQL Profiler

par Itzik Ben-Gan
Retrouvez le coupable en reconstituant le crime… L'utilisation de l'outil de traçage SQL Profiler de SQL Server 7.0 est comparable à  l'aide qu'apporterait un enquêteur privé, permettant d'optimiser, de dépanner et de gérer un environnement SQL Server. L'article "Comment suivre un événement à  la trace avec SQL Server Profiler" présente l'architecture de suivi de SQL Server 7.0, et indique comment définir au moyen d'une interface graphique une fonction de suivi avec Profiler. Désormais, vous êtes prêt à  plonger dans des eaux plus profondes, et à  réexécuter les actions enregistrées par Profiler, et définir des actions de suivi automatique avec les procédures cataloguées étendues de suivi de SQL Server 7.0. Avec ces bases solides, on peut mettre à  profit Profiler et les procédures cataloguées étendues pour examiner différents cas de figure, allant des requêtes dont l'exécution est anormalement longue aux situations de blocage.

Si on souhaite réexécuter des traces, il faut d'abord mener quelques tâches préliminaires à  bien

Lire l'article
Comment suivre un événement à  la trace

Comment suivre un événement à  la trace

par Itzik Ben-Gan
Tracez les problèmes de base de données avec les puissants outils de suivi inclus dans SQL Server 7.0 Suivre à  la trace les requêtes des clients et les réponses du serveur n'est pas chose facile avec les versions de SQL Server antérieures à  la version 6.5. Un outil de suivi freeware, appelé SQLEye, analyseur de trames réseau ODS (Open Data Services) peut permettre de s'en sortir mais il est difficile à  configurer et compliqué à  utiliser, même pour des opérations de suivi de base.

SQL Server 6.5 a apporté un outil graphique, SQL Trace, facilitant l'utilisation de SQLEye. SQL Trace, qui peut sauvegarder ses résultats dans un fichier trace ou un fichier script SQL, peut gérer un nombre limité d'événements et de filtres ; il indique également, par exemple, les instructions SQL passées par un client et les procédures cataloguées exécutées par le serveur. En revanche, on ne pourra pas savoir ce qui se passe à  l'intérieur du serveur. On ne saura pas par exemple quelles procédures cataloguées ont été appelées par d'autres procédures cataloguées, ou quand une connexion a mis en place ou libéré un verrouillage (à  moins d'utiliser SQL Server 7.0).

Profiler capture des informations détaillées à  propos des événements se produisant sur le serveur

Les puissantes fonctions de suivi de SQL Server, et en particulier de son nouvel outil de traçage, SQL Profiler, améliorent les fonctionnalités de SQL Trace et introduisent de nouvelles fonctions de suivi, d'analyse et d'optimisation de SQL Server. Profiler capture des informations détaillées à  propos des événements se produisant sur le serveur. Cela permet ainsi de passer dans les coulisses du problème ; on peut découvrir les requêtes aboutissant à  un blocage, les raisons de la lenteur de certaines requêtes, les opérations effectuées dans une procédure cataloguée, etc... Non seulement peut-on déterminer si un événement s'est produit, mais on peut également analyser les opérations ayant conduit à  cet événement. Outre l'interception des requêtes client et des réponses du serveur, Profiler enregistre les événements générés par les composants internes du serveur.

La configuration d'une trace Profiler de base est relativement simple. Mais on peut rapidement se retrouver noyé dans la masse des données générées par cet outil. Profiler résout le problème en fournissant des filtres permettant de contrôler la quantité et le type des données incluses dans le suivi. Le présent article permet de se familiariser avec SQL Profiler, et montre comment définir graphiquement une trace. L'encadré "Boîte noire SQL Server", décrit la fonction Flight Recorder de SQL Server, qui trace les 100 dernières requêtes. L'article "Résolution de problèmes avec SQL Profiler", analyse plus en détail les fonctions de suivi de Profiler et de SQL Server.


Boîte noire SQL Server


Les traces permettent d'analyser le comportement du système. Toutefois, l'analyse d'un problème donné peut se révéler difficile, car les événements ayant conduit au problème se sont déjà  produits. Pour parer à  toute éventualité, on peut créer une trace qui fonctionne en tâche de fond et de façon permanente. En plus de consommer des ressources systèmes, une telle trace génère trop d'informations difficiles à  analyser efficacement. Une autre alternative consiste à  essayer de reproduire le problème. Cependant, la solution la plus simple consiste à  utiliser la fonction Flight Recorder de SQL Server, qui enregistre les 100 dernières requêtes traitées. Les informations de Flight Recorder sont particulièrement utiles lorsque le système s'arrête brutalement.

Pour démarrer Flight Recorder, exécutez la procédure cataloguée étendue xp_trace_setqueryhistory 1. Cette procédure démarre automatiquement la fonction Flight Recorder à  chaque fois que SQL Server démarre. Pour arrêter la trace, exécutez xp_trace_setque

Lire l'article
Bienvenue dans le 21ème siècle

Bienvenue dans le 21ème siècle

par Carson Soule
Maintenant que l'an 2000 est quasiment derrière nous et que nous entrons dans le 21ème siècle et le nouveau millénaire, je souhaiterais me retourner un instant sur 2000 et me demander "Que s'est-il passé ?" Mais peut-être devrais-je me demander " Que ne s'est-il pas passé ?"

Lire l'article
Optimiser les performances batch de l’AS/400, 2e partie

Optimiser les performances batch de l’AS/400, 2e partie

par Rick Turner
Il faut structurer les applications et optimiser l'environnement d'exécution batch pour obtenir une efficacité maximale Dans le précédent numéro de SYSTEMS Journal, nous avons vu plusieurs méthodes permettant d'améliorer les performances du traitement base de données du batch. Poursuivons cette discussion, et examinons d'autres possibilités.

SMP peut faire gagner énormément de temps

Lire l'article
Sécurité et packages applicatifs

Sécurité et packages applicatifs

par Patrick Botz
Le package applicatif de votre fournisseur est-il compatible avec vos exigences en matière de sécurité ? Voici 11 questions et leurs réponses, qui vous aideront à  le déterminer. Face aux nombreux éditeurs de logiciels applicatifs, on risque fort d'en rencontrer un (si ce n'est déjà  fait…) qui connaît peu la sécurité, ou qui l'ignore purement et simplement. Mais comment protéger le système et les données contre des fournisseurs laxistes ? Premièrement, ne partez pas du principe que le fournisseur comprend la sécurité, même s'il vend lui-même des produits de gestion de sécurité ! Ensuite, sachez que sauf si vous êtes sur le point d'acheter du logiciel à  un fournisseur, vous n'avez pas beaucoup de moyens pour l'amener à  respecter vos règles de sécurité.

La sécurité et l'intégrité du système sont finalement de votre propre responsabilité. Pour les assumer, il faut comprendre les ramifications du logiciel, en matière de sécurité. Il faut savoir comment les éditeurs réalisent leurs applications et comprendre le modèle de sécurité utilisé. Pour cela, il faut interroger les éditeurs pour déterminer leur degré de connaissance des sécurités et pour voir si leur modèle de sécurité applicative est en harmonie avec le ou les modèles de sécurité en vigueur sur votre système.

Pour vous aider à  trier le bon grain de l'ivraie, j'ai dressé une liste de questions à  poser aux fournisseurs d'applications. Chaque question est suivie d'une explication, d'une description de réponse rationnelle, et des mesures supplémentaires à  prendre pour s'assurer que les programmes du fournisseur ne contourneront pas votre politique de sécurité. Ce jeu de questions n'est nullement exhaustif, mais il comporte quelques points importants.

Lire l'article
Tirer toute la puissance de la MMC de Windows 2000

Tirer toute la puissance de la MMC de Windows 2000

par Kathy Ivens
La Microsoft Management Console (MMC) de Windows 2000 constitue un framework pour l'administration et la gestion des configurations des systèmes. La beauté de la MMC est qu'elle remplace les nombreuses interfaces nécessaires pour gérer Windows NT et qu'elle simplifie la gestion des systèmes. La MMC a été amplement documentée par Microsoft. On peut donc s'attendre à  ce que les éditeurs de logiciels commencent à  inclure dans leurs solutions des composants logiciels enfichables la MMC pour leur installation et configuration. La Microsoft Management Console constitue une interface graphique pour les composants logiciels enfichables d'administration - également baptisées snap-in. Ces briques logicielles définissent et réalisent les tâches d'administration. La MMC en elle-même n'offre pas de fonctions d'administration. Sa valeur ajoutée est qu'elle vous permet d'ajouter et coordonner facilement les composants enfichables. La MMC offre une interface de documents multiples qui peut exploiter les technologies Internet et les contrôles ActiveX.
La MMC tourne sur les plates-formes Win32 (par exemple Windows 2000, NT 4.0 ou Windows 9x). Windows 2000 comprend des snap-in en standard dans le menu Outils d'administration du menu Démarrer. De nombreux autres produits Microsoft (notamment le Kit de ressources de Windows 2000, SQL Server et Exchange 2000 Server), offrent des composants enfichables supplémentaires.
On peut assembler plusieurs composants logiciels enfichables pour créer une console personnalisée pour administrer les différents ordinateurs de votre entreprise. Sauvegardez les consoles que vous avez créées sous forme de fichiers .msc (Management Saved Console), et utilisez la méthode qui conviendra la mieux à  votre environnement pour les distribuer dans le système d'informations. (On peut par exemple rendre les fichiers disponibles sous forme de raccourcis sur les bureaux ou comme options du menu démarrer, envoyer les fichiers par e-mails ou encore publier les fichiers dans une page Web.)

On peut assembler plusieurs composants logiciels enfichables pour créer une console personnalisée

Lire l'article
Utiliser IPSEC pour protéger les ressources du LAN

Utiliser IPSEC pour protéger les ressources du LAN

par Paula Sharick
Les attaques contre les ordinateurs sévissant sur l'Internet sont très médiatisées, ne serait-ce que parce qu'elles provoquent souvent une interruption de service pour des millions d'utilisateurs. Mais les malveillances à  l'encontre des données d'une entreprise provenant de l'intérieur d'un réseau bénéficient de beaucoup moins de publicité, même si elle provoquent au moins autant de dégâts que celles venant d'Internet. Les entreprises divulguent rarement des statistiques sur les sabotages internes à  l'encontre des réseaux ; reconnaître cette délinquance revient à  déclarer l'incapacité de l'informatique de l'entreprise à  sécuriser correctement les informations sensibles.

Windows 2000 offre deux méthodes pour sécuriser l'accès aux données sensibles : les protocoles de tunneling (qui protègent un paquet TCP/IP en l'encapsulant dans un autre paquet TCP/IP, un peu comme quand on glisse une lettre dans une enveloppe), et IPSec (IP Security). Celles-ci peuvent réduire et éventuellement éliminer une bonne partie des atteintes internes à  la sécurité, y compris le vol et la modification non autorisée des données. PPTP ou L2TP (Layer 2 Tunneling Protocol) sont les deux protocoles de tunneling proposés au choix pour sécuriser les connexions entre clients et de client à  serveur. L2TP présente l'avantage d'interopérer avec IPSec.

IPSec se compose d'une architecture et de deux protocoles : AH (Authentification Header) et ESP (Encapsulating Security Payload) pour sécuriser les connexions LAN et WAN dans un réseau en mode Windows 2000 natif ou en mode mixte. Après avoir déterminé les conditions requises pour une connexion sécurisée spécifique, il convient de définir une stratégie IPSec pour les mettre en oeuvre, puis d'activer cette stratégie sur les ordinateurs aux deux extrémités de la connexion. Windows 2000 comporte des stratégies intégrées qui aident à  imposer des communications à  sécurité élevée, moyenne ou faible, et sont suffisantes dans de nombreux cas de sécurité de réseau ordinaires.

Les stratégies intégrées ne couvrent toutefois pas tous les scénarios de sécurité communs, et il importe donc de comprendre comment définir et tester une stratégie personnalisée. Voyez l'encadré " Créer et tester une stratégie personnalisée " pour un exemple de stratégie IPSec imposant une communication cryptée sécurisée entre des systèmes Windows 2000 qui ne sont pas membres d'un domaine Windows 2000. La lecture de cet article vous apportera les connaissances nécessaires pour implémenter des connexions IPSec pour les membres des domaines Windows 2000, les serveurs autonomes Windows 2000 et les serveurs Windows 2000 dans un domaine Windows NT 4.0.

Les stratégies intégrées ne couvrent pas tous les scénarios de sécurité communs

Lire l'article
Pour un contrôle d’accès efficace à  Windows 2000 et NT

Pour un contrôle d’accès efficace à  Windows 2000 et NT

par Randy Franklin-Smith
La question la plus importante concernant la sécurité au sein du réseau interne d'une entreprise consiste à  se demander qui a accès et à  quoi. Dans de nombreuses entreprises, il manque une méthode cohérente pour contrôler l'accès à  certains fichiers. Des domaines contenant des dizaines de milliers de fichiers et de répertoires peuvent avoir des dizaines de milliers d'utilisateurs. Certains outils produisent un énorme rapport indiquant chaque fichier auquel un utilisateur peut accéder, mais les administrateurs ont souvent du mal à  faire le tri dans des rapports aussi détaillés, qui, d'ailleurs, mettent habituellement l'accent sur un serveur au lieu de prendre en compte la totalité d'un réseau. Les rapports n'indiquent pas si des niveaux d'accès variés sont appropriés pour les utilisateurs.
Windows 2000 et NT contrôlent l'accès au niveau des fichiers. Mais pour que le contrôle d'accès soit efficace et contrôlable, les administrateurs système doivent gérer l'accès à  des niveaux plus élevés, tels que les applications, les bases de données et les zones de partages de fichiers de départements ou de groupes de travail. Le contrôle d'accès peut se gérer facilement dans Windows 2000 et NT avec des outils shareware et une structure de groupes à  deux niveaux. Cette méthode crée un système de contrôle facile à  maintenir, à  vérifier et à  apprendre. On peut également mettre en oeuvre la nouvelle structure de contrôle d'accès parallèlement à  celle qui existe sur un système, puis supprimer cette dernière.

Lire l'article
Sécurité réseau : NETFILTER prend la relève

Sécurité réseau : NETFILTER prend la relève

par Bruno Rocher
La mise en place de procédures de sécurité concernant les réseaux est devenue aujourd'hui une priorité. Linux, système d'exploitation intrinsèquement orienté réseau, propose toute une gamme de logiciels permettant de garantir une sécurité optimale. Rappelons que le grand intérêt de Linux, outre la gratuité des logiciels, est la mise à  disposition des sources. Cette accessibilité engendre d'une part une grande rigueur de programmation et d'autre part un très bon niveau de suivi et de corrections. Ce dernier aspect est très important en ce qui concerne la sécurité.
Aujourd'hui, les différentes distributions Linux (Caldera, Suse, RedHat, …) sont construites autour du noyau 2.2. La communauté Linux attend impatiemment la sortie du nouveau noyau 2.4, qui est annoncée pour "l'automne 2000". Toutes les caractéristiques et les outils concernant la sécurité ont été réécrits pour le noyau 2.4.
Les deux principes de base en ce qui concerne la sécurité des réseaux sont le filtrage et le masquage d'adresses. Ces processus étaient pris en charge par le logiciel IPCHAINS. Avec l'arrivée du noyau 2.4, c'est désormais NETFILTER qui va gérer ces tâches. Avant de s'intéresser aux différences entre les deux produits, il convient d'expliquer ou de rappeler quelques notions sur la sécurité, notamment en ce qui concerne le filtrage et le masquage d'adresses.

Lire l'article
Linux, au coeur des outils de base pour Internet

Linux, au coeur des outils de base pour Internet

par René Beretz
Les sociétés qui se positionnent sur le secteur de l'Internet font naturellement appel à  Linux, autour duquel l'offre est pléthorique et variée. Et d'une redoutable efficacité !

Lire l'article
Linux séduit les éditeurs

Linux séduit les éditeurs

par René Beretz
De SAP à  Magic, des suites bureautiques à  Oracle 8i, les éditeurs prennent de plus en plus en compte Linux

Lire l'article
Réussir les montées en charge

Réussir les montées en charge

par David Chernicoff
La montée en charge des systèmes est un sujet qui tend à  énerver les administrateurs système. Est-ce que quiconque fait vraiment évoluer un système dans les environnements de production ? Les entreprises considèrent-elles réellement les possibilités d'upgrade des systèmes comme autre chose qu'une simple ligne dans une check-list d'acquisition des machines ? Que font les administrateurs système lorsqu'un serveur ne peut plus répondre aux besoins des utilisateurs ?

Lire l'article
ISA Server : le proxy pare-feu de Windows 2000

ISA Server : le proxy pare-feu de Windows 2000

par Sean Daily
Avec Proxy Server 1.0, Microsoft faisait sa première incursion dans deux nouveaux marchés alors balbutiants : la sécurité Internet et l'accès rapide au Web. Bien que n'assurant que des fonctions de sécurité de base et ne supportant pas plusieurs protocoles Internet répandus, la version initiale de Proxy Server connut un rapide succès parmi les organisations basées sur NT qui avaient besoin d'un contrôle d'accès des utilisateurs aux services Internet, d'une fonctionnalité de pare-feu Internet et de l'accès rapide au Web.Dans Proxy Server 2.0, Microsoft a remédié à  plusieurs défauts de la première version en incluant la possibilité de contrôler le trafic entrant et sortant et en ajoutant le support d'un plus grand éventail de protocoles Internet et d'applications pour les clients supportant les proxy. Microsoft a également amélioré les fonctionnalités de sécurité du produit pour inclure une fonction sophistiquée de filtrage de paquets qui permet aux administrateurs de définir et de contrôler le flux de types de trafic spécifiques à  travers le système Proxy Server. Pour beaucoup de grandes organisations, les principaux avantages de Proxy Server sont la capacité de s'appuyer sur la base de données des comptes d'utilisateurs NT pour contrôler l'accès des utilisateurs aux services Internet et la possibilité d'utiliser les fonctions de mise en mémoire cache pour optimiser les performances des connexions Internet. Mais malgré ses améliorations en matière de sécurité, il manque à  Proxy Server 2.0 beaucoup de fonctions assurées par les autres pare-feux. Les grandes organisations sont donc nombreuses à  douter de pouvoir en faire leur pare-feu primaire. Etre accepté comme produit de sécurité Internet autonome, tel était donc le défi à  relever pour Proxy Server. Microsoft a ainsi ciblé la prochaine version sur l'intégration des fonctions de sécurité qui font défaut à  Proxy Server 2.0 et s'est fixé comme objectif de remédier également à  un certain nombre d'autres inconvénients de Proxy Server 2.0, tels que l'absence de support de protocoles très répandus et l'obligation d'installer un logiciel sur le client pour l'accès à  Proxy Server. La phase Beta 1 et béta 2 de la lignée de Proxy Server 2.0 ont été baptisées Comet par Microsoft, mais la beta 3 porte le nom de Microsoft Internet Security and Acceleration (ISA) Server, qui exprime mieux les capacités du produit et sa cible : le marché des pare-feux Internet.

Lire l'article
Rester à  la pointe de la sécurité avec IIS

Rester à  la pointe de la sécurité avec IIS

par Randy Franklin Smith
Un serveur Web est l'un des systèmes les plus exposés aux attaques et la cible privilégiée des hackers. La sécurisation de Microsoft IIS est donc une priorité et Microsoft propose plusieurs documents et outils nouveaux (ou mis à  jour) très utiles. Ces ressources s'adressent pour la plupart davantage aux développeurs qu'aux administrateurs, mais la séparation entre le développement et l'administration est souvent floue dans le monde des serveurs Web.Comme beaucoup d'actes de malveillance sont dues aux vulnérabilités du code applicatif, plutôt qu'à  la configuration du système, la sécurité des sites Web dépend autant des développeurs que des administrateurs. Même si vous outsourcez le développement des sites Web, il est indispensable de connaître les problèmes de sécurité importants liés au développement, afin de protéger votre système IIS contre les intrusions.

Lire l'article
Qui veut un annuaire à  100 millions d’entrée ?

Qui veut un annuaire à  100 millions d’entrée ?

par Tony Redmond et Micky Balladelli
Tout le monde est conscient que la base de données SAM de Windows NT est un goulet d'étranglement pour les capacités d'évolution des domaines. En effet, la limite pratique de la SAM se situe à  environ 40.000 comptes d'utilisateurs par domaine. Certaines entreprises, qui sont allées jusqu'aux limites supérieures de la SAM et ont créé de très grands domaines, ont constaté que ces derniers sont difficiles à  gérer.Windows 2000 repose sur l'annuaire Active Directory (AD), qui est un référentiel des comptes d'utilisateurs et de nombreux autres types d'objets. On peut faire confiance à  Microsoft pour ne pas répéter la même erreur une deuxième fois : AD est plus évolutif que la SAM. Mais jusqu'à  quel point ? La question mérite d'être posée. Combien d'objets peut-on stocker dans un domaine, quelle est la taille de la base de données, est-elle administrable et quel type de performances peut-on attendre d'Active Directory ? Pour le savoir, notre confrère américain Windows 2000 Magazine a créé une très grande base de données AD, dont ils ont démontré les capacités au Comdex de Las Vegas en novembre 1999 et lors du lancement de Windows 2000 à  San Francisco en février 2000. Cette démonstration de l'évolutivité d'Active Directory montre que la base de données peut contenir 100 millions d'entrées dans un environnement de production réaliste. Avant d'expliquer comment la base de données de démonstration a été construite et de révéler ce que le processus de création a appris sur AD, revenons d'abord sur quelques principes de bases d'AD.

Lire l'article
Initiation aux concepts de l’OO (Orienté Objet)

Initiation aux concepts de l’OO (Orienté Objet)

par Sharon L. Hoffman
En apprenant les concepts de base de l'orienté objet, on peut peser le pour et le contre de cette technologieLa technologie OO (Orientée Objet) a la réputation bien méritée d'être gourmande en temps et en argent. Pourtant, ses défenseurs affirment qu'elle permet de freiner la hausse des coûts de maintenance applicative. On comprend donc parfaitement que beaucoup d'utilisateurs hésitent à  investir dans cette technologie sans en avoir au préalable bien cerné les avantages et les risques potentiels. Il ne saurait être question d'expliquer la programmation OO dans un seul article. Cependant, en s'écartant quelques instants des détails de mise en oeuvre de Java et des complications du langage UML (Unified Modeling Language), on voit qu'il y a quelques concepts OO de base permettant de comprendre l'idée fondamentale et d'évaluer l'investissement nécessaire pour récolter les fruits que promet cette méthode de programmation.

Lire l'article
Optimiser les performances batch de l’AS/400

Optimiser les performances batch de l’AS/400

par Rick Turner
Structurer les applications et optimiser l'environnement d'exécution batch pour une efficacité maximale Au cours des derniers mois, je suis intervenu sur certains sites AS/400 qui devaient multiplier par cinq voire même 50 leur charge de travail batch en back office. Le premier cas concernait une application de paie devant traiter 500.000 employés alors qu'elle en traitait 100.000 auparavant. Pour le deuxième cas, il s'agissait d'une banque qui, par suite d'un regroupement, devait passer de 600.000 comptes à  30 millions. Dans les deux cas, le traitement des nouvelles charges de travail devait être effectué dans le même laps de temps qu'auparavant.

Pour atteindre leurs objectifs au niveau des temps de traitement, ces clients devaient modifier leurs programmes applicatifs pour qu'ils exploitent au mieux la puissance de l'AS/400. La méthode consistait à  utiliser plusieurs copies des jobs de traitement, chacune travaillant sur des parties distinctes des données en entrée, pour effectuer davantage de travaux dans le même temps et en mettant davantage la CPU à  contribution. C'est tout à  fait possible puisque l'AS/400 traite parfaitement plusieurs jobs à  la fois.

Pourtant, malgré les modifications, les utilisateurs ne parvenaient pas toujours à  pousser le débit de leurs applications batch jusqu'aux limites des ressources du système. Et donc, ils ne pouvaient pas tenir les délais alloués. D'où leur question, "Comment effectuer beaucoup plus de travail dans un laps de temps identique?"

On peut apporter deux éléments de réponse : Utiliser au maximum la CPU et utiliser le disque jusqu'aux plus hautes valeurs de seuil recommandées. Cet article explique quelques méthodes de traitement susceptibles d'améliorer le débit d'un travail en batch. Je propose quelques idées générales sur la manière de structurer une application et de créer un environnement d'exécution optimal (pour le matériel et le logiciel), afin de réaliser le maximum de travail utile dans le minimum de temps.

Lire l'article
Préparer le passage à  Windows 2000 Professionnel

Préparer le passage à  Windows 2000 Professionnel

par John Ruley
La compatibilité, les configurations hardware minimum et la facilité de mise à  jour font partie des sujets d'interrogation communs avant le passage à  Windows 2000 Professionnel. Cet article répond aux 8 questions qui reviennent le plus souvent concernant la transition à  Windows 2000 Professionnel.

Lire l'article
Windows 2000 Datacenter Server : une démarche nouvelle chez Microsoft

Windows 2000 Datacenter Server : une démarche nouvelle chez Microsoft

par Christophe Boulan
Avec Windows 2000 DataCenter, Microsoft entend jouer dans la cours des grands d'où le narguaient jusqu'à  présent les systèmes mainframes, les grands UNIX et les AS/400. Mais pour cela, il ne suffit pas de créer un Windows 2000 plus puissant. Microsoft a du revoir notamment ses systèmes de certification et son approche des services de support afin de répondre aux besoins des applications stratégiques des grands comptes. Une véritable révolution culturelle pour Microsoft.
à‡a y est ! Microsoft a désormais lancé toute la famille Windows 2000 32-bit avec la sortie de Windows 2000 Datacenter Server. Datacenter s'appuie sur les fonctions de Windows 2000 Advanced Server, auxquels s'ajoutent toutes les corrections de bugs du Service Pack 1, ainsi que le support de 64 GO de RAM, des processeurs 32-bit, du clustering à  2 et 4 noeuds, du partitionnement et de l'équilibrage de la charge réseau. Windows 2000 Datacenter est destiné aux entreprise engagées dans l'e-commerce, aux ASP (Application Service Providers) et autres clients haut de gamme à  le recherche de fiabilité et de disponibilité. Datacenter Server est la première véritable entrée légitime de Microsoft sur un marché dominé par les gros bras.

Longtemps, Microsoft s'est fait l'avocat d'un modèle d'entreprise du type de celui de Windows 2000 et Windows NT : distribué. Windows 2000 Datacenter associe les avantages de la montée en charge horizontale (par ajout de serveurs) de Windows 2000, avec un modèle plus traditionnel de croissance verticale - un gros serveur avec de fortes capacités d'évolution en multiprocesseur. Avec Datacenter, Microsoft espère gagner enfin la crédibilité qui lui est refusée depuis l'annonce initiale de Windows NT. (L'image de Windows NT a souffert de défauts et de limitations parfois véritables, parfois perçues.) Mais pour atteindre cet objectif, il ne suffit pas de construire un Windows 2000 plus gros. Pour répondre aux exigences de clients haut de gamme, dont bon nombre n'auraient certainement pas fait confiance à  Windows 2000 autrement, Microsoft a créé un programme de tests de fiabilité baptisé Windows 2000 Datacenter Program, pour s'assurer que Datacenter ne sera installé que sur des configurations intégralement testées et validées.

La clé du programme est le Hardware Compatibility Test (HCT) que chaque machine compatible Datacenter doit passer


La clé du programme est le Hardware Compatibility Test (HCT) que chaque machine compatible Datacenter doit passer. Dès lors qu'un matériel a passé cette batterie de tests rigoureux (voir l'encadré " HCT : une certification matérielle spécifique "), Microsoft certifie sa compatibilité avec Datacenter et le place sur la liste de compatibilité matérielle (HCL) de Windows 2000 Datacenter, disponible sur le site Web de Microsoft. De par la rigueur des tests pratiqués, les produits de la HCL de Datacenter ne sont qu'un sous-ensemble des HCL des autres versions de Windows 2000. Les systèmes Datacenter doivent garantir au moins 99,9 % de disponibilité et les constructeurs qui vendent de tels systèmes doivent fournir régulièrement à  Microsoft des rapports de disponibilité et autres statistiques. De plus, les systèmes Datacenter doivent pouvoir supporter au moins 8 processeurs, même s'il peuvent être livrés avec seulement 1 processeur. Le système de licences est basé sur le nombre de processeurs que le système peut supporter et il faut acquérir des licences d'accès client séparément.

Certes, Windows 2000 Datacenter semble en mesure de pouvoir résoudre bon nombre des problèmes de montée en charge non résolus par les grandes entreprises utilisant Windows 2000. Mais reste à  savoir si le produit pourra réussir sa percée sur ce marché haut de gamme. Il sera intéressant de voir quelle plate-forme les entreprises choisissent au fur et à  mesure que Windows 2000 monte en puissance.

Lire l'article
Déléguer l’administration avec AD

Déléguer l’administration avec AD

par Paula Sharick
Au fur et à  mesure de la croissance des entreprises, se développent parallèlement les tâches quotidienne de maintenance et d'administration des systèmes informatiques, indispensables pour continuer à  satisfaire les utilisateurs et à  faire tourner rondement le réseau.Les entreprises ayant déjà  dû faire face à  une période d'embauche sérieuse, savent très bien ce que chaque nouvel employé représente comme travail pour le personnel du service informatique : nouveau compte, nouveau profil et script de connexion, espace de stockage sur le serveur, contrôles d'accès aux applications et aux données et, éventuellement, capacités d'accès à  distance. De plus, au fur et à  mesure que les imprimantes prolifèrent dans l'entreprise, une myriade de problèmes d'impression inonde quotidiennement le Service de support technique. Au fur et à  mesure que s'étendent les réseaux et les ressources qu'ils supportent, la charge s'accroît rapidement sur l'équipe du support informatique - 2.000 utilisateurs accédant à  200 ressources partagées génèrent plus d'un million de demandes d'assistance potentielles. Même une grande équipe informatique ne peut pas gérer efficacement et dans les temps un tel niveau de complexité. Heureusement, Windows 2000 fournit une fonction très précieuse, la délégation des tâches de routine d'administration et de support à  l'échelle de l'entreprise. Pour tirer avantageusement partie des fonctions de délégation d'Active Directory, il faut commencer par définir des unités organisationnelles (UO), puis identifier les tâches à  déléguer et ajouter les membres du personnel responsables de la gestion distribuée et de la maintenance. Une fois cette infrastructure en place, l'assistant de Délégation de contrôle d'AD peut être utilisé pour déléguer rapidement les permissions et les droits indispensables à  chaque groupe pour accomplir les activités de gestion qui lui ont été assignées.

Lire l'article