Actualités, Dossiers et Ressources IT Professionnelles -
mardi 26 novembre 2024
>
iTPro.fr
Résolution de problèmes avec SQL Profiler
par Itzik Ben-Gan Retrouvez le coupable en reconstituant le crime…
L'utilisation de l'outil de traçage SQL Profiler de SQL Server 7.0 est comparable
à l'aide qu'apporterait un enquêteur privé, permettant d'optimiser, de dépanner
et de gérer un environnement SQL Server. L'article "Comment suivre un événement
à la trace avec SQL Server Profiler" présente l'architecture de suivi de SQL Server
7.0, et indique comment définir au moyen d'une interface graphique une fonction
de suivi avec Profiler. Désormais, vous êtes prêt à plonger dans des eaux plus
profondes, et à réexécuter les actions enregistrées par Profiler, et définir des
actions de suivi automatique avec les procédures cataloguées étendues de suivi
de SQL Server 7.0. Avec ces bases solides, on peut mettre à profit Profiler et
les procédures cataloguées étendues pour examiner différents cas de figure, allant
des requêtes dont l'exécution est anormalement longue aux situations de blocage.
Si on souhaite réexécuter des traces, il faut d'abord mener quelques tâches
préliminaires à bien
par Itzik Ben-Gan
Tracez les problèmes de base de données avec les puissants outils de suivi inclus
dans SQL Server 7.0
Suivre à la trace les requêtes des clients et les réponses du serveur n'est pas
chose facile avec les versions de SQL Server antérieures à la version 6.5. Un
outil de suivi freeware, appelé SQLEye, analyseur de trames réseau ODS (Open Data
Services) peut permettre de s'en sortir mais il est difficile à configurer et
compliqué à utiliser, même pour des opérations de suivi de base.
SQL Server 6.5 a apporté un outil graphique, SQL Trace, facilitant l'utilisation
de SQLEye. SQL Trace, qui peut sauvegarder ses résultats dans un fichier trace
ou un fichier script SQL, peut gérer un nombre limité d'événements et de filtres
; il indique également, par exemple, les instructions SQL passées par un client
et les procédures cataloguées exécutées par le serveur. En revanche, on ne pourra
pas savoir ce qui se passe à l'intérieur du serveur. On ne saura pas par exemple
quelles procédures cataloguées ont été appelées par d'autres procédures cataloguées,
ou quand une connexion a mis en place ou libéré un verrouillage (à moins d'utiliser
SQL Server 7.0).
Profiler capture des informations détaillées à propos des événements se
produisant sur le serveur
Les puissantes fonctions de suivi de SQL Server, et en particulier de son nouvel
outil de traçage, SQL Profiler, améliorent les fonctionnalités de SQL Trace et
introduisent de nouvelles fonctions de suivi, d'analyse et d'optimisation de SQL
Server. Profiler capture des informations détaillées à propos des événements se
produisant sur le serveur. Cela permet ainsi de passer dans les coulisses du problème
; on peut découvrir les requêtes aboutissant à un blocage, les raisons de la lenteur
de certaines requêtes, les opérations effectuées dans une procédure cataloguée,
etc... Non seulement peut-on déterminer si un événement s'est produit, mais on
peut également analyser les opérations ayant conduit à cet événement. Outre l'interception
des requêtes client et des réponses du serveur, Profiler enregistre les événements
générés par les composants internes du serveur.
La configuration d'une trace Profiler de base est relativement simple. Mais on
peut rapidement se retrouver noyé dans la masse des données générées par cet outil.
Profiler résout le problème en fournissant des filtres permettant de contrôler
la quantité et le type des données incluses dans le suivi. Le présent article
permet de se familiariser avec SQL Profiler, et montre comment définir graphiquement
une trace. L'encadré "Boîte noire SQL Server", décrit la fonction Flight Recorder
de SQL Server, qui trace les 100 dernières requêtes. L'article "Résolution de
problèmes avec SQL Profiler", analyse plus en détail les fonctions de suivi de
Profiler et de SQL Server.
Boîte noire SQL Server
Les traces permettent d'analyser le comportement du système. Toutefois,
l'analyse d'un problème donné peut se révéler difficile, car les événements
ayant conduit au problème se sont déjà produits. Pour parer à toute éventualité,
on peut créer une trace qui fonctionne en tâche de fond et de façon permanente.
En plus de consommer des ressources systèmes, une telle trace génère trop
d'informations difficiles à analyser efficacement. Une autre alternative
consiste à essayer de reproduire le problème. Cependant, la solution la
plus simple consiste à utiliser la fonction Flight Recorder de SQL Server,
qui enregistre les 100 dernières requêtes traitées. Les informations de
Flight Recorder sont particulièrement utiles lorsque le système s'arrête
brutalement.
Pour démarrer Flight Recorder, exécutez la procédure cataloguée étendue
xp_trace_setqueryhistory 1. Cette procédure démarre automatiquement la fonction
Flight Recorder à chaque fois que SQL Server démarre. Pour arrêter la trace,
exécutez xp_trace_setque
Lire l'article
Bienvenue dans le 21ème siècle
par Carson Soule
Maintenant que l'an 2000 est quasiment derrière nous et que nous entrons dans
le 21ème siècle et le nouveau millénaire, je souhaiterais me retourner un instant
sur 2000 et me demander "Que s'est-il passé ?" Mais peut-être devrais-je me demander
" Que ne s'est-il pas passé ?"
Optimiser les performances batch de l’AS/400, 2e partie
par Rick Turner
Il faut structurer les applications et optimiser l'environnement d'exécution batch
pour obtenir une efficacité maximale
Dans le précédent numéro de SYSTEMS Journal, nous avons vu plusieurs méthodes
permettant d'améliorer les performances du traitement base de données du batch.
Poursuivons cette discussion, et examinons d'autres possibilités.
par Patrick Botz
Le package applicatif de votre fournisseur est-il compatible avec vos exigences
en matière de sécurité ? Voici 11 questions et leurs réponses, qui vous aideront
à le déterminer.
Face aux nombreux éditeurs de logiciels applicatifs, on risque fort d'en rencontrer
un (si ce n'est déjà fait…) qui connaît peu la sécurité, ou qui l'ignore purement
et simplement. Mais comment protéger le système et les données contre des fournisseurs
laxistes ? Premièrement, ne partez pas du principe que le fournisseur comprend
la sécurité, même s'il vend lui-même des produits de gestion de sécurité ! Ensuite,
sachez que sauf si vous êtes sur le point d'acheter du logiciel à un fournisseur,
vous n'avez pas beaucoup de moyens pour l'amener à respecter vos règles de sécurité.
La sécurité et l'intégrité du système sont finalement de votre propre responsabilité.
Pour les assumer, il faut comprendre les ramifications du logiciel, en matière
de sécurité. Il faut savoir comment les éditeurs réalisent leurs applications
et comprendre le modèle de sécurité utilisé. Pour cela, il faut interroger les
éditeurs pour déterminer leur degré de connaissance des sécurités et pour voir
si leur modèle de sécurité applicative est en harmonie avec le ou les modèles
de sécurité en vigueur sur votre système.
Pour vous aider à trier le bon grain de l'ivraie, j'ai dressé une liste de questions
à poser aux fournisseurs d'applications. Chaque question est suivie d'une explication,
d'une description de réponse rationnelle, et des mesures supplémentaires à prendre
pour s'assurer que les programmes du fournisseur ne contourneront pas votre politique
de sécurité. Ce jeu de questions n'est nullement exhaustif, mais il comporte quelques
points importants.
Tirer toute la puissance de la MMC de Windows 2000
par Kathy Ivens
La Microsoft Management Console (MMC) de Windows 2000 constitue un framework pour
l'administration et la gestion des configurations des systèmes. La beauté de la
MMC est qu'elle remplace les nombreuses interfaces nécessaires pour gérer Windows
NT et qu'elle simplifie la gestion des systèmes. La MMC a été amplement documentée
par Microsoft. On peut donc s'attendre à ce que les éditeurs de logiciels commencent
à inclure dans leurs solutions des composants logiciels enfichables la MMC pour
leur installation et configuration.
La Microsoft Management Console constitue une interface graphique pour les composants
logiciels enfichables d'administration - également baptisées snap-in. Ces briques
logicielles définissent et réalisent les tâches d'administration. La MMC en elle-même
n'offre pas de fonctions d'administration. Sa valeur ajoutée est qu'elle vous
permet d'ajouter et coordonner facilement les composants enfichables. La MMC offre
une interface de documents multiples qui peut exploiter les technologies Internet
et les contrôles ActiveX.
La MMC tourne sur les plates-formes Win32 (par exemple Windows 2000, NT 4.0 ou
Windows 9x). Windows 2000 comprend des snap-in en standard dans le menu Outils
d'administration du menu Démarrer. De nombreux autres produits Microsoft (notamment
le Kit de ressources de Windows 2000, SQL Server et Exchange 2000 Server), offrent
des composants enfichables supplémentaires.
On peut assembler plusieurs composants logiciels enfichables pour créer une console
personnalisée pour administrer les différents ordinateurs de votre entreprise.
Sauvegardez les consoles que vous avez créées sous forme de fichiers .msc (Management
Saved Console), et utilisez la méthode qui conviendra la mieux à votre environnement
pour les distribuer dans le système d'informations. (On peut par exemple rendre
les fichiers disponibles sous forme de raccourcis sur les bureaux ou comme options
du menu démarrer, envoyer les fichiers par e-mails ou encore publier les fichiers
dans une page Web.)
On peut assembler plusieurs composants logiciels enfichables pour créer
une console personnalisée
Utiliser IPSEC pour protéger les ressources du LAN
par Paula Sharick
Les attaques contre les ordinateurs sévissant sur l'Internet sont très médiatisées,
ne serait-ce que parce qu'elles provoquent souvent une interruption de service
pour des millions d'utilisateurs. Mais les malveillances à l'encontre des données
d'une entreprise provenant de l'intérieur d'un réseau bénéficient de beaucoup
moins de publicité, même si elle provoquent au moins autant de dégâts que celles
venant d'Internet.
Les entreprises divulguent rarement des statistiques sur les sabotages internes
à l'encontre des réseaux ; reconnaître cette délinquance revient à déclarer l'incapacité
de l'informatique de l'entreprise à sécuriser correctement les informations sensibles.
Windows 2000 offre deux méthodes pour sécuriser l'accès aux données sensibles
: les protocoles de tunneling (qui protègent un paquet TCP/IP en l'encapsulant
dans un autre paquet TCP/IP, un peu comme quand on glisse une lettre dans une
enveloppe), et IPSec (IP Security). Celles-ci peuvent réduire et éventuellement
éliminer une bonne partie des atteintes internes à la sécurité, y compris le vol
et la modification non autorisée des données. PPTP ou L2TP (Layer 2 Tunneling
Protocol) sont les deux protocoles de tunneling proposés au choix pour sécuriser
les connexions entre clients et de client à serveur. L2TP présente l'avantage
d'interopérer avec IPSec.
IPSec se compose d'une architecture et de deux protocoles : AH (Authentification
Header) et ESP (Encapsulating Security Payload) pour sécuriser les connexions
LAN et WAN dans un réseau en mode Windows 2000 natif ou en mode mixte. Après avoir
déterminé les conditions requises pour une connexion sécurisée spécifique, il
convient de définir une stratégie IPSec pour les mettre en oeuvre, puis d'activer
cette stratégie sur les ordinateurs aux deux extrémités de la connexion. Windows
2000 comporte des stratégies intégrées qui aident à imposer des communications
à sécurité élevée, moyenne ou faible, et sont suffisantes dans de nombreux cas
de sécurité de réseau ordinaires.
Les stratégies intégrées ne couvrent toutefois pas tous les scénarios de sécurité
communs, et il importe donc de comprendre comment définir et tester une stratégie
personnalisée. Voyez l'encadré " Créer et tester une stratégie personnalisée "
pour un exemple de stratégie IPSec imposant une communication cryptée sécurisée
entre des systèmes Windows 2000 qui ne sont pas membres d'un domaine Windows 2000.
La lecture de cet article vous apportera les connaissances nécessaires pour implémenter
des connexions IPSec pour les membres des domaines Windows 2000, les serveurs
autonomes Windows 2000 et les serveurs Windows 2000 dans un domaine Windows NT
4.0.
Les stratégies intégrées ne couvrent pas tous les scénarios de sécurité
communs
Pour un contrôle d’accès efficace à Windows 2000 et NT
par Randy Franklin-Smith
La question la plus importante concernant la sécurité au sein du réseau interne
d'une entreprise consiste à se demander qui a accès et à quoi. Dans de nombreuses
entreprises, il manque une méthode cohérente pour contrôler l'accès à certains
fichiers. Des domaines contenant des dizaines de milliers de fichiers et de répertoires
peuvent avoir des dizaines de milliers d'utilisateurs.
Certains outils produisent un énorme rapport indiquant chaque fichier auquel un
utilisateur peut accéder, mais les administrateurs ont souvent du mal à faire
le tri dans des rapports aussi détaillés, qui, d'ailleurs, mettent habituellement
l'accent sur un serveur au lieu de prendre en compte la totalité d'un réseau.
Les rapports n'indiquent pas si des niveaux d'accès variés sont appropriés pour
les utilisateurs.
Windows 2000 et NT contrôlent l'accès au niveau des fichiers. Mais pour que le
contrôle d'accès soit efficace et contrôlable, les administrateurs système doivent
gérer l'accès à des niveaux plus élevés, tels que les applications, les bases
de données et les zones de partages de fichiers de départements ou de groupes
de travail. Le contrôle d'accès peut se gérer facilement dans Windows 2000 et
NT avec des outils shareware et une structure de groupes à deux niveaux. Cette
méthode crée un système de contrôle facile à maintenir, à vérifier et à apprendre.
On peut également mettre en oeuvre la nouvelle structure de contrôle d'accès parallèlement
à celle qui existe sur un système, puis supprimer cette dernière.
par Bruno Rocher
La mise en place de procédures de sécurité concernant les réseaux est devenue
aujourd'hui une priorité. Linux, système d'exploitation intrinsèquement orienté
réseau, propose toute une gamme de logiciels permettant de garantir une sécurité
optimale.
Rappelons que le grand intérêt de Linux, outre la gratuité des logiciels, est
la mise à disposition des sources. Cette accessibilité engendre d'une part une
grande rigueur de programmation et d'autre part un très bon niveau de suivi et
de corrections. Ce dernier aspect est très important en ce qui concerne la sécurité.
Aujourd'hui, les différentes distributions Linux (Caldera, Suse, RedHat, …) sont
construites autour du noyau 2.2. La communauté Linux attend impatiemment la sortie
du nouveau noyau 2.4, qui est annoncée pour "l'automne 2000". Toutes les caractéristiques
et les outils concernant la sécurité ont été réécrits pour le noyau 2.4.
Les deux principes de base en ce qui concerne la sécurité des réseaux sont le
filtrage et le masquage d'adresses. Ces processus étaient pris en charge par le
logiciel IPCHAINS. Avec l'arrivée du noyau 2.4, c'est désormais NETFILTER qui
va gérer ces tâches. Avant de s'intéresser aux différences entre les deux produits,
il convient d'expliquer ou de rappeler quelques notions sur la sécurité, notamment
en ce qui concerne le filtrage et le masquage d'adresses.
par René Beretz
Les sociétés qui se positionnent sur le secteur de l'Internet font naturellement
appel à Linux, autour duquel l'offre est pléthorique et variée. Et d'une redoutable
efficacité !
par David Chernicoff
La montée en charge des systèmes est un sujet qui tend à énerver les administrateurs système. Est-ce que quiconque fait vraiment évoluer un système dans les environnements de production ? Les entreprises considèrent-elles réellement les possibilités d'upgrade des systèmes comme autre chose qu'une simple ligne dans une check-list d'acquisition des machines ? Que font les administrateurs système lorsqu'un serveur ne peut plus répondre aux besoins des utilisateurs ?
par Sean Daily
Avec Proxy Server 1.0, Microsoft faisait sa première incursion dans deux nouveaux marchés alors balbutiants : la sécurité Internet et l'accès rapide au Web. Bien que n'assurant que des fonctions de sécurité de base et ne supportant pas plusieurs protocoles Internet répandus, la version initiale de Proxy Server connut un rapide succès parmi les organisations basées sur NT qui avaient besoin d'un contrôle d'accès des utilisateurs aux services Internet, d'une fonctionnalité de pare-feu Internet et de l'accès rapide au Web.Dans Proxy Server 2.0, Microsoft a remédié à plusieurs défauts de la première version en incluant la possibilité de contrôler le trafic entrant et sortant et en ajoutant le support d'un plus grand éventail de protocoles Internet et d'applications pour les clients supportant les proxy. Microsoft a également amélioré les fonctionnalités de sécurité du produit pour inclure une fonction sophistiquée de filtrage de paquets qui permet aux administrateurs de définir et de contrôler le flux de types de trafic spécifiques à travers le système Proxy Server. Pour beaucoup de grandes organisations, les principaux avantages de Proxy Server sont la capacité de s'appuyer sur la base de données des comptes d'utilisateurs NT pour contrôler l'accès des utilisateurs aux services Internet et la possibilité d'utiliser les fonctions de mise en mémoire cache pour optimiser les performances des connexions Internet. Mais malgré ses améliorations en matière de sécurité, il manque à Proxy Server 2.0 beaucoup de fonctions assurées par les autres pare-feux. Les grandes organisations sont donc nombreuses à douter de pouvoir en faire leur pare-feu primaire.
Etre accepté comme produit de sécurité Internet autonome, tel était donc le défi à relever pour Proxy Server. Microsoft a ainsi ciblé la prochaine version sur l'intégration des fonctions de sécurité qui font défaut à Proxy Server 2.0 et s'est fixé comme objectif de remédier également à un certain nombre d'autres inconvénients de Proxy Server 2.0, tels que l'absence de support de protocoles très répandus et l'obligation d'installer un logiciel sur le client pour l'accès à Proxy Server. La phase Beta 1 et béta 2 de la lignée de Proxy Server 2.0 ont été baptisées Comet par Microsoft, mais la beta 3 porte le nom de Microsoft Internet Security and Acceleration (ISA) Server, qui exprime mieux les capacités du produit et sa cible : le marché des pare-feux Internet.
par Randy Franklin Smith
Un serveur Web est l'un des systèmes les plus exposés aux attaques et la cible privilégiée des hackers. La sécurisation de Microsoft IIS est donc une priorité et Microsoft propose plusieurs documents et outils nouveaux (ou mis à jour) très utiles. Ces ressources s'adressent pour la plupart davantage aux développeurs qu'aux administrateurs, mais la séparation entre le développement et l'administration est souvent floue dans le monde des serveurs Web.Comme beaucoup d'actes de malveillance sont dues aux vulnérabilités du code applicatif, plutôt qu'à la configuration du système, la sécurité des sites Web dépend autant des développeurs que des administrateurs. Même si vous outsourcez le développement des sites Web, il est indispensable de connaître les problèmes de sécurité importants liés au développement, afin de protéger votre système IIS contre les intrusions.
par Tony Redmond et Micky Balladelli
Tout le monde est conscient que la base de données SAM de Windows NT est un goulet d'étranglement pour les capacités d'évolution des domaines. En effet, la limite pratique de la SAM se situe à environ 40.000 comptes d'utilisateurs par domaine. Certaines entreprises, qui sont allées jusqu'aux limites supérieures de la SAM et ont créé de très grands domaines, ont constaté que ces derniers sont difficiles à gérer.Windows 2000 repose sur l'annuaire Active Directory (AD), qui est un référentiel des comptes d'utilisateurs et de nombreux autres types d'objets. On peut faire confiance à Microsoft pour ne pas répéter la même erreur une deuxième fois : AD est plus évolutif que la SAM. Mais jusqu'à quel point ? La question mérite d'être posée. Combien d'objets peut-on stocker dans un domaine, quelle est la taille de la base de données, est-elle administrable et quel type de performances peut-on attendre d'Active Directory ?
Pour le savoir, notre confrère américain Windows 2000 Magazine a créé une très grande base de données AD, dont ils ont démontré les capacités au Comdex de Las Vegas en novembre 1999 et lors du lancement de Windows 2000 à San Francisco en février 2000. Cette démonstration de l'évolutivité d'Active Directory montre que la base de données peut contenir 100 millions d'entrées dans un environnement de production réaliste. Avant d'expliquer comment la base de données de démonstration a été construite et de révéler ce que le processus de création a appris sur AD, revenons d'abord sur quelques principes de bases d'AD.
par Sharon L. Hoffman
En apprenant les concepts de base de l'orienté objet, on peut peser le pour et le contre de cette technologieLa technologie OO (Orientée Objet) a la réputation bien méritée d'être gourmande en temps et en argent. Pourtant, ses défenseurs affirment qu'elle permet de freiner la hausse des coûts de maintenance applicative. On comprend donc parfaitement que beaucoup d'utilisateurs hésitent à investir dans cette technologie sans en avoir au préalable bien cerné les avantages et les risques potentiels.
Il ne saurait être question d'expliquer la programmation OO dans un seul article. Cependant, en s'écartant quelques instants des détails de mise en oeuvre de Java et des complications du langage UML (Unified Modeling Language), on voit qu'il y a quelques concepts OO de base permettant de comprendre l'idée fondamentale et d'évaluer l'investissement nécessaire pour récolter les fruits que promet cette méthode de programmation.
par Rick Turner
Structurer les applications et optimiser l'environnement d'exécution batch pour
une efficacité maximale
Au cours des derniers mois, je suis intervenu sur certains sites AS/400 qui devaient
multiplier par cinq voire même 50 leur charge de travail batch en back office.
Le premier cas concernait une application de paie devant traiter 500.000 employés
alors qu'elle en traitait 100.000 auparavant. Pour le deuxième cas, il s'agissait
d'une banque qui, par suite d'un regroupement, devait passer de 600.000 comptes
à 30 millions. Dans les deux cas, le traitement des nouvelles charges de travail
devait être effectué dans le même laps de temps qu'auparavant.
Pour atteindre leurs objectifs au niveau des temps de traitement, ces clients
devaient modifier leurs programmes applicatifs pour qu'ils exploitent au mieux
la puissance de l'AS/400. La méthode consistait à utiliser plusieurs copies des
jobs de traitement, chacune travaillant sur des parties distinctes des données
en entrée, pour effectuer davantage de travaux dans le même temps et en mettant
davantage la CPU à contribution. C'est tout à fait possible puisque l'AS/400 traite
parfaitement plusieurs jobs à la fois.
Pourtant, malgré les modifications, les utilisateurs ne parvenaient pas toujours
à pousser le débit de leurs applications batch jusqu'aux limites des ressources
du système. Et donc, ils ne pouvaient pas tenir les délais alloués. D'où leur
question, "Comment effectuer beaucoup plus de travail dans un laps de temps identique?"
On peut apporter deux éléments de réponse : Utiliser au maximum la CPU et utiliser
le disque jusqu'aux plus hautes valeurs de seuil recommandées. Cet article explique
quelques méthodes de traitement susceptibles d'améliorer le débit d'un travail
en batch. Je propose quelques idées générales sur la manière de structurer une
application et de créer un environnement d'exécution optimal (pour le matériel
et le logiciel), afin de réaliser le maximum de travail utile dans le minimum
de temps.
par John Ruley
La compatibilité, les configurations hardware minimum et la facilité de mise à
jour font partie des sujets d'interrogation communs avant le passage à Windows
2000 Professionnel. Cet article répond aux 8 questions qui reviennent le plus
souvent concernant la transition à Windows 2000 Professionnel.
Windows 2000 Datacenter Server : une démarche nouvelle chez Microsoft
par Christophe Boulan
Avec Windows 2000 DataCenter, Microsoft entend jouer dans la cours des grands
d'où le narguaient jusqu'à présent les systèmes mainframes, les grands UNIX et
les AS/400. Mais pour cela, il ne suffit pas de créer un Windows 2000 plus puissant.
Microsoft a du revoir notamment ses systèmes de certification et son approche
des services de support afin de répondre aux besoins des applications stratégiques
des grands comptes. Une véritable révolution culturelle pour Microsoft.
à‡a y est ! Microsoft a désormais lancé toute la famille Windows 2000 32-bit avec
la sortie de Windows 2000 Datacenter Server. Datacenter s'appuie sur les fonctions
de Windows 2000 Advanced Server, auxquels s'ajoutent toutes les corrections de
bugs du Service Pack 1, ainsi que le support de 64 GO de RAM, des processeurs
32-bit, du clustering à 2 et 4 noeuds, du partitionnement et de l'équilibrage de
la charge réseau. Windows 2000 Datacenter est destiné aux entreprise engagées
dans l'e-commerce, aux ASP (Application Service Providers) et autres clients haut
de gamme à le recherche de fiabilité et de disponibilité. Datacenter Server est
la première véritable entrée légitime de Microsoft sur un marché dominé par les
gros bras.
Longtemps, Microsoft s'est fait l'avocat d'un modèle d'entreprise du type de celui
de Windows 2000 et Windows NT : distribué. Windows 2000 Datacenter associe les
avantages de la montée en charge horizontale (par ajout de serveurs) de Windows
2000, avec un modèle plus traditionnel de croissance verticale - un gros serveur
avec de fortes capacités d'évolution en multiprocesseur. Avec Datacenter, Microsoft
espère gagner enfin la crédibilité qui lui est refusée depuis l'annonce initiale
de Windows NT. (L'image de Windows NT a souffert de défauts et de limitations
parfois véritables, parfois perçues.) Mais pour atteindre cet objectif, il ne
suffit pas de construire un Windows 2000 plus gros. Pour répondre aux exigences
de clients haut de gamme, dont bon nombre n'auraient certainement pas fait confiance
à Windows 2000 autrement, Microsoft a créé un programme de tests de fiabilité
baptisé Windows 2000 Datacenter Program, pour s'assurer que Datacenter ne sera
installé que sur des configurations intégralement testées et validées.
La clé du programme est le Hardware Compatibility Test (HCT) que chaque machine
compatible Datacenter doit passer
La clé du programme est le Hardware Compatibility Test (HCT) que chaque machine
compatible Datacenter doit passer. Dès lors qu'un matériel a passé cette batterie
de tests rigoureux (voir l'encadré " HCT : une certification matérielle spécifique
"), Microsoft certifie sa compatibilité avec Datacenter et le place sur la liste
de compatibilité matérielle (HCL) de Windows 2000 Datacenter, disponible sur le
site Web de Microsoft. De par la rigueur des tests pratiqués, les produits de
la HCL de Datacenter ne sont qu'un sous-ensemble des HCL des autres versions de
Windows 2000. Les systèmes Datacenter doivent garantir au moins 99,9 % de disponibilité
et les constructeurs qui vendent de tels systèmes doivent fournir régulièrement
à Microsoft des rapports de disponibilité et autres statistiques. De plus, les
systèmes Datacenter doivent pouvoir supporter au moins 8 processeurs, même s'il
peuvent être livrés avec seulement 1 processeur. Le système de licences est basé
sur le nombre de processeurs que le système peut supporter et il faut acquérir
des licences d'accès client séparément.
Certes, Windows 2000 Datacenter semble en mesure de pouvoir résoudre bon nombre
des problèmes de montée en charge non résolus par les grandes entreprises utilisant
Windows 2000. Mais reste à savoir si le produit pourra réussir sa percée sur ce
marché haut de gamme. Il sera intéressant de voir quelle plate-forme les entreprises
choisissent au fur et à mesure que Windows 2000 monte en puissance.
par Paula Sharick
Au fur et à mesure de la croissance des entreprises, se développent parallèlement les tâches quotidienne de maintenance et d'administration des systèmes informatiques, indispensables pour continuer à satisfaire les utilisateurs et à faire tourner rondement le réseau.Les entreprises ayant déjà dû faire face à une période d'embauche sérieuse, savent très bien ce que chaque nouvel employé représente comme travail pour le personnel du service informatique : nouveau compte, nouveau profil et script de connexion, espace de stockage sur le serveur, contrôles d'accès aux applications et aux données et, éventuellement, capacités d'accès à distance. De plus, au fur et à mesure que les imprimantes prolifèrent dans l'entreprise, une myriade de problèmes d'impression inonde quotidiennement le Service de support technique.
Au fur et à mesure que s'étendent les réseaux et les ressources qu'ils supportent, la charge s'accroît rapidement sur l'équipe du support informatique - 2.000 utilisateurs accédant à 200 ressources partagées génèrent plus d'un million de demandes d'assistance potentielles. Même une grande équipe informatique ne peut pas gérer efficacement et dans les temps un tel niveau de complexité. Heureusement, Windows 2000 fournit une fonction très précieuse, la délégation des tâches de routine d'administration et de support à l'échelle de l'entreprise. Pour tirer avantageusement partie des fonctions de délégation d'Active Directory, il faut commencer par définir des unités organisationnelles (UO), puis identifier les tâches à déléguer et ajouter les membres du personnel responsables de la gestion distribuée et de la maintenance. Une fois cette infrastructure en place, l'assistant de Délégation de contrôle d'AD peut être utilisé pour déléguer rapidement les permissions et les droits indispensables à chaque groupe pour accomplir les activités de gestion qui lui ont été assignées.
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel
Toujours activé
Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
Le stockage ou l’accès technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou la personne utilisant le service.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.