Actualités, Dossiers et Ressources IT Professionnelles -
vendredi 18 avril 2025
>
Data
10 astuces de réglage pour 90 % de gains de performances
par Kalen Delaney
La règle des 90/10 pour les performances de SQL Server : Le réglage de Microsoft SQL Server 2000 et de SQL Server 7.0 pour doper les performances peut être ardu mais, le plus souvent, on peut obtenir d'importants avantages en contrepartie d'un effort minime.
par Brian Moran
NDLR
Journaliste et MVP (Most Valuable Professional) SQL Server, Brian Moran s'est
récemment entretenu avec Paul Flessner, Vice-Président SQL Server et Middleware
chez Microsoft, à propos de l'évolution de SQL Server et de son rôle dans les
environnements des services informatiques des entreprises.
Paul Flessner fut l'intervenant clé de la Conférence Expo PASS 2000 en Amérique
du Nord l'année dernière à San Francisco (Pour plus d'informations, consulter
le site Web http://sqlpass.org).
Ce qui suit est un extrait de l'interview, on peut lire l'interview complète sur
www.sqlmag.com, InstantDoc ID 8993.
par Karen Delaney SQL Server 2000 ouvre une voie alternative pour atteindre des performances maximales
Remarque : Les auteurs ont basé leurs articles SQL Server 2000 sur des versions
antérieures à la Bêta 2. Aussi, il se peut que vous remarquiez quelques
différences entre la Bêta 2 et le comportement ou les interfaces décrits
dans cet article. En particulier, veuillez noter que la fonction vues indexées
ne sera disponible que dans SQL Server 2000 Enterprise Edition. Toutefois,
on peut installer Entreprise Edition sur un serveur NT 4 ou Windows 2000
(W2K). On n'est pas obligé d'utiliser NT 4.0 Enterprise ou W2K Advanced
Server.
Le puissant et récent support de SQL Server 2000 des vues indexées promet de nous
faciliter la tâche tout en exécutant les applications et requêtes plus rapidement.
Cela vous semble trop beau pour être vrai ? Les vues indexées permettent de précalculer
toutes sortes de jointures, agrégations et formules pour que l'on n'ait plus à
écrire ces conditions dans chaque requête. De plus, Microsoft déclare obtenir
des gains de performance de 10 à 100 fois supérieurs au sein des applications
et requêtes accédant aux vues indexées par rapport aux tables de base. Bien qu'Oracle
supporte une fonctionnalité similaire, appelée vues matérialisées, les nouvelles
vues indexées de SQL Server vont bien au-delà de ce qu'offre la concurrence.
Les nouvelles vues indexées de SQL Server vont bien au-delà de ce qu'offre
la concurrence
Vues indexées ou vues matérialisées ?
Vous avez peut-être entendu parler du concours doté d'un prix d'un million
de dollars organisé par Oracle lorsque Microsoft a lancé SQL Server 7.0.
Ce concours a été modifié trois fois, mais la version finale ressemble à
ceci :
"Oracle Corp. versera la somme d'un million de dollars à la première personne
capable de démontrer que SQL Server 7.0, avec une base de données TPC-D
d'un Tera-octets peut se rapprocher à 1/100 près des meilleures performances
publiées à ce jour par Oracle pour la requête n°5 du standard TPC-D actuel
(version 1.3.1). Pour être éligible, le candidat doit réaliser un test TPC-D
sur 1 To complet, répondant à toutes les contraintes de chargement, de mise
à jour et de recherche des données, et publier un rapport intégral de toutes
les mesures de performances. Le candidat peut utiliser n'importe quelle
plate-forme habilitée à héberger SQL Server 7.0. Les tests doivent être
validés par un organisme certifié TPC".
Oracle était sûr de son fait, car son système prenait déjà en charge une
fonctionnalité appelée "Vues matérialisées". Etant donné que le TPC (Transaction
Processing Performance Council) documente de manière exhaustive les spécifications
de ses benchmarks, Oracle a été en mesure de créer des vues matérialisées
correspondant aux requêtes exécutées au cours du benchmark. Ainsi, il suffit
à la base de données de lire les résultats pré-calculés depuis le disque,
sans avoir à effectuer aucun traitement. Si SQL Server 7.0 avait pris en
charge les vues indexées, Oracle n'aurait jamais organisé ce concours.
Les vues indexées de SQL Server 2000 présentent plusieurs avantages par
rapport aux vues matérialisées d'Oracle. Tout d'abord, les vues matérialisées
ne sont pas dynamiques. Il faut les rafraîchir manuellement pour prendre
en compte les modifications intervenues dans les données. Ensuite, l'optimiseur
de requêtes d'Oracle ne prévoit pas de façon automatique l'utilisation d'une
vue matérialisée si on ne précise pas directement le nom de la vue dans
la clause FROM de la requête.
Qu'on utilise des vues indexées ou matérialisées, dans les deux cas, il
faut con
Lire l'article
Résolution de problèmes avec SQL Profiler
par Itzik Ben-Gan Retrouvez le coupable en reconstituant le crime…
L'utilisation de l'outil de traçage SQL Profiler de SQL Server 7.0 est comparable
à l'aide qu'apporterait un enquêteur privé, permettant d'optimiser, de dépanner
et de gérer un environnement SQL Server. L'article "Comment suivre un événement
à la trace avec SQL Server Profiler" présente l'architecture de suivi de SQL Server
7.0, et indique comment définir au moyen d'une interface graphique une fonction
de suivi avec Profiler. Désormais, vous êtes prêt à plonger dans des eaux plus
profondes, et à réexécuter les actions enregistrées par Profiler, et définir des
actions de suivi automatique avec les procédures cataloguées étendues de suivi
de SQL Server 7.0. Avec ces bases solides, on peut mettre à profit Profiler et
les procédures cataloguées étendues pour examiner différents cas de figure, allant
des requêtes dont l'exécution est anormalement longue aux situations de blocage.
Si on souhaite réexécuter des traces, il faut d'abord mener quelques tâches
préliminaires à bien
par Itzik Ben-Gan
Tracez les problèmes de base de données avec les puissants outils de suivi inclus
dans SQL Server 7.0
Suivre à la trace les requêtes des clients et les réponses du serveur n'est pas
chose facile avec les versions de SQL Server antérieures à la version 6.5. Un
outil de suivi freeware, appelé SQLEye, analyseur de trames réseau ODS (Open Data
Services) peut permettre de s'en sortir mais il est difficile à configurer et
compliqué à utiliser, même pour des opérations de suivi de base.
SQL Server 6.5 a apporté un outil graphique, SQL Trace, facilitant l'utilisation
de SQLEye. SQL Trace, qui peut sauvegarder ses résultats dans un fichier trace
ou un fichier script SQL, peut gérer un nombre limité d'événements et de filtres
; il indique également, par exemple, les instructions SQL passées par un client
et les procédures cataloguées exécutées par le serveur. En revanche, on ne pourra
pas savoir ce qui se passe à l'intérieur du serveur. On ne saura pas par exemple
quelles procédures cataloguées ont été appelées par d'autres procédures cataloguées,
ou quand une connexion a mis en place ou libéré un verrouillage (à moins d'utiliser
SQL Server 7.0).
Profiler capture des informations détaillées à propos des événements se
produisant sur le serveur
Les puissantes fonctions de suivi de SQL Server, et en particulier de son nouvel
outil de traçage, SQL Profiler, améliorent les fonctionnalités de SQL Trace et
introduisent de nouvelles fonctions de suivi, d'analyse et d'optimisation de SQL
Server. Profiler capture des informations détaillées à propos des événements se
produisant sur le serveur. Cela permet ainsi de passer dans les coulisses du problème
; on peut découvrir les requêtes aboutissant à un blocage, les raisons de la lenteur
de certaines requêtes, les opérations effectuées dans une procédure cataloguée,
etc... Non seulement peut-on déterminer si un événement s'est produit, mais on
peut également analyser les opérations ayant conduit à cet événement. Outre l'interception
des requêtes client et des réponses du serveur, Profiler enregistre les événements
générés par les composants internes du serveur.
La configuration d'une trace Profiler de base est relativement simple. Mais on
peut rapidement se retrouver noyé dans la masse des données générées par cet outil.
Profiler résout le problème en fournissant des filtres permettant de contrôler
la quantité et le type des données incluses dans le suivi. Le présent article
permet de se familiariser avec SQL Profiler, et montre comment définir graphiquement
une trace. L'encadré "Boîte noire SQL Server", décrit la fonction Flight Recorder
de SQL Server, qui trace les 100 dernières requêtes. L'article "Résolution de
problèmes avec SQL Profiler", analyse plus en détail les fonctions de suivi de
Profiler et de SQL Server.
Boîte noire SQL Server
Les traces permettent d'analyser le comportement du système. Toutefois,
l'analyse d'un problème donné peut se révéler difficile, car les événements
ayant conduit au problème se sont déjà produits. Pour parer à toute éventualité,
on peut créer une trace qui fonctionne en tâche de fond et de façon permanente.
En plus de consommer des ressources systèmes, une telle trace génère trop
d'informations difficiles à analyser efficacement. Une autre alternative
consiste à essayer de reproduire le problème. Cependant, la solution la
plus simple consiste à utiliser la fonction Flight Recorder de SQL Server,
qui enregistre les 100 dernières requêtes traitées. Les informations de
Flight Recorder sont particulièrement utiles lorsque le système s'arrête
brutalement.
Pour démarrer Flight Recorder, exécutez la procédure cataloguée étendue
xp_trace_setqueryhistory 1. Cette procédure démarre automatiquement la fonction
Flight Recorder à chaque fois que SQL Server démarre. Pour arrêter la trace,
exécutez xp_trace_setque
Lire l'article
Le triple objectif du commerce électronique
par Nahid Jilovec
Le succès du e-business est subordonné à un plan d'action à trois volets : retenir,
élargir et étendre
Décider comment intégrer le commerce électronique dans une organisation peut s'avérer
être une entreprise très décourageante. Avant même d'envisager la création ou
l'achat d'une solution, il est indispensable de définir précisément les futures
fonctions des applications de commerce électronique.
Celles-ci peuvent varier considérablement en fonction de la nature de l'entreprise,
mais les programmes d'action de commerce électronique doivent se fonder sur trois
principes de base : élargir la marge de manoeuvre des employés, retenir les clients
et étendre l'entreprise.
par Itzik Ben-Gan
Avec des déclencheurs et T-SQL, on peut mettre sur pied une solution de gestion
des données hiérarchiques fonctionnelle, et qui assure sa propre maintenance.
Une start-up Internet attire Andrew vers un nouveau poste ; Steven et Michael,
qui étaient sous sa responsabilité, ont besoin d'un nouveau manager. Super Janet
prend Steven et Michael sous son aile bien qu'elle supervise déjà directement
Robert, Laura et Ann Robert, à son tour, va diriger sa propre équipe. Mais récemment,
Robert a commencé à chercher un poste proposant des horaires plus attrayants et
un meilleur salaire. Si Robert quitte la société, qui va chapeauter David, Ron
et Dan, sans compter James, l'assistant de David ? Et, plus important encore,
comment le service informatique va-t-il répercuter tous ces changements de managers
dans l'organigramme de la société ?
Les structures hiérarchiques, également appelées arbres, présentent des dépendances
hiérarchiques entre leurs membres. Une structure hiérarchique classique est constituée
d'un organigramme décrivant les relations entre les employés d'une entreprise.
Un manager est chargé de superviser certains employés, ces employés peuvent à
leur tour être chargés de gérer d'autres employés, etc…
Ni, le langage SQL, ni SQL Server ne dispose d'un support intégré pour
ces structures hiérarchiques
Ni, le langage SQL, ni SQL Server ne disposent d'un support intégré pour ces structures
hiérarchiques. Alors, comment traiter les hiérarchies avec des systèmes de gestion
de base de données relationnelle (SGBDR), tels que SQL Server ? Considérez la
figure 1, qui montre un organigramme simple. On remarque que chaque employé a
un supérieur hiérarchique, sauf Nancy qui est la responsable au niveau le plus
haut. La façon la plus courante de représenter une telle structure dans une base
de données relationnelle est d'utiliser des paires de colonnes : une colonne comportant
les ID des employés (les enfants) et l'autre, les ID de leurs managers (les parents).
Le problème avec cette solution est que Nancy n'a pas de supérieur hiérarchique,
mais qu'il faut tout de même mettre une valeur dans sa colonne Manager ID. Pour
résoudre ce problème, il suffit de mettre un NULL dans la colonne Manager ID.
Une autre solution serait d'enregistrer l'ID de Nancy dans la colonne Manager
ID et faire ainsi de Nancy son propre chef.
Pour bien voir comment maintenir les hiérarchies avec SQL Server, créez une table
simple contenant les informations concernant les employés de l'organigramme de
la figure 1. On peut alors utiliser des déclencheurs, des requêtes T-SQL et des
procédures cataloguées pour suivre une ID d'employé, un nom d'employé, une ID
de manager et le salaires de l'employé et de son supérieur hiérarchique lorsqu'un
nouvel embauché rejoint la société, change de poste dans l'entreprise, ou lorsqu'il
quitte la société. Pour les besoins de notre exemple, utilisez NULL comme valeur
de l'ID du manager de Nancy.
par Robert Vieira
Maîtrisez les UDF de SQL Server 2000
J'ai commencé à travailler avec SQL Server en version 6.0. Bien que j'aie antérieurement
déjà utilisé le langage SQL en environnement VMS en 1989, la majeure partie de
mon expérience relative aux bases de données s'était déroulée dans un environnement
de fichiers plats. J'ai été étonné de constater que les opérations sur les enregistrements
de type curseur ne me manquaient pas autant que la capacité de définir simplement
des fonctions. Avec SQL Server 2000, je peux enfin créer des UDF (User-Defined
Functions : fonctions définies par l'utilisateur) utilisables non seulement dans
les scripts, mais aussi en ligne dans des instructions DML (Data Manipulation
Language). SQL Server 2000 possède deux types d'UDF. Le premier type renvoie une
valeur scalaire et le second des tables. Dans le présent article, je présente
des exemples de chacun des deux types et décris brièvement la manière d'utiliser
les UDF dans des applications SQL Server 2000.
à€ bien des égards, les UDF ressemblent à des procédures cataloguées
Configuration des sécurités de SQL Server 7.0 et de IIS
par John D. Lambert
Comment améliorer les sécurités et les performances de la connexion.
L'utilisation des configurations par défaut rend l'installation de Microsoft IIS
et de SQL Server 7.0 plus rapide et plus simple, mais en acceptant les valeurs
par défaut pour l'authentification sur SQL Server 7.0, on peut mettre en danger
la sécurité des données du serveur. Etant donné que SQL Server 7.0 comporte certaines
failles dans sa sécurité, l'authentification Windows 2000 ou Windows NT constitue
peut-être un meilleur choix que celle de SQL Server. La plupart du temps, les
gens utilisent IIS avec des pages Web qui se connectent à SQL Server via des liens
ODBC dans le modèle de programmation ADO. Cette méthode fonctionne, mais ce n'est
pas la plus efficace. Dans cet article, je présente quelques astuces que l'on
peut utiliser pour améliorer les sécurités et la connexion à SQL Server.
On a deux possibilités lorsqu'on configure l'authentification dans SQL
Server 7.0 : le mode Windows NT et le mode mixte
Abordons avant tout les différentes possibilités d'authentification. On a deux
possibilités lorsqu'on configure l'authentification dans SQL Server 7.0 : le mode
Windows NT et le mode mixte. Microsoft recommande fortement l'authentification
NT. En fait, SQL Server 2000 utilise par défaut l'authentification NT à l'installation.
Le white paper "Microsoft SQL Server 7.0 Security " (http://www.microsoft.com/sql/techinfo/dupsecurity.document)
contient plus d'informations sur la mise en place des authentifications. Les outils
de piratage disponibles sur le Web permettent à tout employé malhonnête, depuis
l'intérieur de vos firewalls, ou à n'importe qui capable de passer ces firewalls,
de remplacer le mot de passe de votre compte administrateur, de se connecter,
de créer un nouveau compte ayant des privilèges d'administrateur, se déconnecter
et de remplacer votre mot de passe précédent. Ainsi, si l'authentification SQL
Server reste active, on permet à un intrus potentiel d'acquérir le contrôle total
de la base de données. La réponse officielle de Microsoft à cette vulnérabilité
est qu'il faut entièrement désactiver l'authentification SQL Server. Pour utiliser
SQL Server avec une authentification NT, il faut d'abord créer des comptes NT
que les pages Web pourront utiliser, puis donner les autorisations SQL Server
dont elles auront besoin. Ensuite, on convertit les pages pour qu'elles puissent
utiliser les comptes NT correctement mappés lorsque les utilisateurs se connectent
anonymement. Après avoir rendu les pages Web compatibles avec l'authentification
NT, reconfigurez SQL Server pour utiliser uniquement cette authentification NT.
Faites ces modifications sur votre serveur de développement dans un premier temps,
et, après vous être assuré que la configuration fonctionne correctement, reproduisez
ce processus sur les serveurs de production.
Pour rendre une page Web compatible avec les comptes NT, il faut que le code puisse
utiliser des connexions sécurisées, comme je vais le démontrer. Si on utilise
des objets de connexion que l'on a intégrés à des DLL, et que l'on a installé
ces DLL dans MTS (Microsoft Transaction Server) en tant que composant COM+, le
travail sera plus facile que si on a codé les connexions dans chaque page Web.
Il ne vous reste plus alors qu'à modifier le code source pour utiliser une chaîne
de connexion sécurisée, recompiler le code et mettre à jour le composant MTS.
Si votre site Web utilise des objets de connexions ADO sur chaque page, il faut
éditer chacun d'entre eux. Si vous avez de nombreuses pages, un outil de recherche
et de remplacement fonctionnant au niveau d'une arborescence de répertoires peut
vous faire gagner du temps.
Optimisez les sécurités et la connexion à SQL Server et IIS
Voici un résumé des choses que l'on peut mettre en oeuvre pour optimiser
la sécurité et la connexion à SQL Server.
1. Utiliser des authentifications uniquement Wi
Lire l'article
Microsoft .NET décrypté
par Michael Otey En tant que pierre angulaire de l'architecture .NET, SQL Server permet l'accès aux données d'entreprise, à la fois par le biais du Web et des PC de bureau.Dévoilé l'année dernière au cours du Forum 2000, Microsoft .NET est l'incarnation la plus récente des Next Generation Windows Services (NGWS), le nom précédent de la prochaine version de Windows adaptée au Web. Bien que .NET ne soit encore qu'un objectif, plus qu'une réelle entité tangible, il promet d'avoir des effets très conséquents, aussi bien pour Microsoft que pour l'industrie des logiciels en général.
Microsoft .NET représente une refonte complète des lignes de produits de l'entreprise et de son futur technologique. Aucun applicatif de Microsoft, SQL Server en tête, ne pourra rester en l'état dès lors que l'éditeur de Redmond déroulera sa stratégie .NET au cours des quelques années à venir. Le changement de nom en .NET transformera Windows en Windows.NET, SQL Server en SQL Server.NET, Microsoft Office en Office.NET, Visual Studio en Visual Studio.NET, etc. Mais la métamorphose .NET va beaucoup plus loin qu'un simple changement de nom. Microsoft .NET est une infrastructure qui incorpore l'Internet et qui change la façon dont les technologies Microsoft interagissent entre-elles et comment les utilisateurs les exploiteront. Microsoft a fait de SQL Server la pierre angulaire de cette nouvelle architecture en permettant un accès aux données de l'entreprise à la fois via le Web et par un poste de travail classique. A ce stade très préliminaire de l'initiative .NET, il n'est vraiment pas facile de distinguer les hyperboles marketing des détails techniques concrets. Je vais cependant essayer de brosser un tableau global de la vision de Microsoft pour le futur. Nous verrons également comment Microsoft .NET a la capacité de transformer à la fois Microsoft et la façon dont on construit des applications Windows.
par Bob Pfeiffer Inspirez-vous de l'exemple simple décrit ici pour extraire des données relationnelles vers un datamart multidimensionnel
Vous avez certainement déjà entendu les termes datamart, bases de données multidimensionnelles, schéma en étoile. Mais nombreux sont ceux qui pensent que le fonctionnement des entrepôts de données (datawarehouse) reste un mystère. Si vous n'avez pas pris part à un projet de développement de datawarehouse d'entreprise ou d'un département de l'entreprise, vous avez peut-être du mal à maîtriser ces concepts et à imaginer comment ils peuvent se traduire en solutions pratiques. Aussi, commençons cette présentation des entrepôts de données une fois encore par l'analyse d'un problème de gestion courant, et en parcourant une solution de datamart simple utilisant l'environnement contrôlé de la base de données témoin Northwind fournie avec SQL Server.
L'instruction Select est incontournable…
Pour exécuter une requête SQL, l'utilisation de l'instruction Select est incontournable.
C'est pourquoi, j'entame cette série d'articles consacrée aux fondements du langage
SQL par un article qui présente la syntaxe de l'instruction Select.
La plupart des exemples de déclarations ci-dessous proviennent et ont été testés
en utilisant le SQL interactif (ISQL: Interactive SQL) de l'AS/400. ISQL est invoqué
à partir de la ligne de commande par la commande STRSQL (Start SQL). Pour obtenir
de plus amples renseignements sur ISQL, consultez l'article "Interactive SQL",
NEWS/400, août 1998.
Un grand nombre d'entreprises exécutent NT Server sur processeurs Intel. Ce choix
est intéressant à plusieurs titres : le matériel est meilleur marché, l'éventail
des constructeurs et très large, le catalogue applicatif est extrêmement important…
mais les systèmes plafonnent à 4. La situation change avec la nouvelle architecture
Profusion d'Intel.
NT Server progresse fortement et les entreprises sont de plus en plus nombreuses
à déployer sur NT Server des applications telles que data mining, progiciels de
gestion (ERP) et serveurs de terminaux, tournant sur des serveurs SMP à architecture
Intel. Parallèlement elles sont plus exigeantes sur les niveaux d'évolutivité
des systèmes, en vue d'améliorer les performances. Or le serveur SMP à quatre
voies ne peut plus répondre à ces besoins. Pour apporter une solution à cette
situation, Intel a donc mis au point un nouveau standard, le système SMP baptisé
Profusion, une méthode standardisée permettant de placer huit processeurs dans
une CPU. On trouve sur le marché quantité de machines à 4 voies et plus, mais
elles utilisent des architectures propriétaires. Un serveur SMP à 8 voies vraiment
évolutif permet aux applications comme SAP et SQL Server 7.0 d'atteindre de meilleures
performances.Le support de huit processeurs par l'architecture Intel Profusion
est unique et il est important de comprendre cette nouvelle architecture avant
d'évaluer et d'acheter un nouveau serveur SMP à 8 voies. Quelle est donc cette
nouvelle architecture, ses composants, ses perspectives ?
par David Jones
Utilisez la fonction de recherche documentaire de SQL Server 7.0 pour concevoir des bases de données pouvant être consultées sur le Web
Que vous fassiez des recherches pour un exposé ou que vous
recherchiez un numéro de téléphone, ou encore que vous ne fassiez que surfer,
vous utilisez probablement un moteur de recherche Internet quotidiennement. Pour
répondre à la demande d'informations récupérables, de nombreuses
entreprises conçoivent des sites Web utilisant des bases de données
relationnelles en arrière-plan et sur lesquels les utilisateurs peuvent
effectuer des recherches dynamiques. En notre qualité d'administrateurs de
bases de données et de développeurs d'applications, nous devons concevoir de
meilleurs mécanismes permettant à l'utilisateur de rechercher des informations
sur l'entreprise, telles que les bilans pour les actionnaires, les communiqués
de presse, les catalogues produits, etc... La fonction de recherche documentaire
de SQL Server 7.0 peut représenter la réponse. Le moteur de recherche
documentaire de SQL Server permet des recherches rapides, et offre des
fonctionnalités avancées de recherche de texte, très utiles dans un
environnement d'entreprise.
Vous utilisez
probablement un moteur de recherche Internet quotidiennement
Avec les premières versions de SQL Server, on était limité
à des requêtes sur de larges blocs de texte en utilisant LIKE dans une
instruction SELECT. Mais l'instruction LIKE est limitée, car elle ne peut
établir de correspondance qu'avec des séquences de caractères. En outre, si
on utilise l'instruction LIKE avec un signe pourcent (%) avant et après la
chaîne recherchée, on génère une analyse de table très longue. La plupart
des utilisateurs ont besoin de fonctions de recherche plus avancées, produisant
des résultats immédiats après qu'ils aient appuyé sur la touche Entrée.
Avec SQL Server 7.0 et les versions ultérieures, on peut toujours utiliser l'instruction
LIKE si on le souhaite, mais on peut désormais aussi utiliser une nouvelle
option de syntaxe et indexer les données.
Au lieu d'utiliser les index stockés dans la base de
données, le moteur de recherche documentaire utilise Microsoft Search Service
pour répertorier ces index sur le disque dur du serveur. Lorsqu'on sélectionne
l'option Full-Text Search dans la Configuration personnalisée de SQL Server, le
processus d'installation installe automatiquement Microsoft Search Service.
Toutefois, ce service n'est disponible que pour les systèmes Standard et
Enterprise sous Windows 2000 ou Windows NT, et non dans les versions poste de
travail ou Windows 9x. Microsoft Search Service intègre deux fonctions
distinctes : conception et peuplement du catalogue de recherche
documentaire, et traitement de la recherche.
Pour installer le moteur de recherche documentaire après
avoir installé SQL Server, il faut réexécuter l'installation à partir du
CD-ROM de SQL Server 7.0. Dans la boîte de dialogue Select Components
(Sélectionner les composants), sélectionnez L'option Full-Text Search, comme
cela est indiqué dans la figure 1, puis redémarrez. Seul SQL Server 7.0
fonctionnant sous NT Server prend en charge la recherche documentaire.
L'environnement NT Server Enterprise Edition clusterisé ne supporte pas encore
la fonction de recherche documentaire de SQL Server. De fait, Microsoft prendra
en charge cette fonction dans un environnement clusterisé dans SQL Server 2000.
Un groupe d'éditeurs et d'entreprises utilisatrices a formalisé les types de métadonnées
pour les entrepôts de données. C'est devenu l'OIM (Open Information Model)
Avant les efforts de normalisation de Microsoft, les éditeurs et la communauté
informatique ne parvenaient guère à se mettre d'accord sur le type de métadonnées
qu'un entrepôt de données devait contenir.
Par la suite, Microsoft a entrepris de réunir les principaux éditeurs et les entreprises
utilisatrices pour déterminer ces types de métadonnées. A l'instar du modèle objet
pour une application, le modèle d'information pour un référentiel définit le genre
de métadonnées stockées dans l'entrepôt de données, et la manière dont ces données
sont organisées.
Ces efforts ont conduit à la définition de l'OIM (Open Information Model). Celui-ci
contient les définitions d'approximativement 300 types d'objets et des relations
entre ces types d'objets. La documentation de ces types représente une tâche laborieuse
; le groupe a pour mission de définir et de documenter clairement chaque type
ainsi que ses caractéristiques et relations nécessaires.
Etant donné que le modèle d'information définit les métadonnées en termes de types
d'objets et de relations, la recherche d'une technologie de modélisation d'objets
appropriée est la solution évidente. Le groupe a choisi UML (Unified Modeling
Language) pour documenter et publier le modèle d'information. Le standard OIM
constitue le langage commun pour décrire les informations contenues dans un entrepôt
de données.
En juillet 1999, Microsoft a transféré la propriété du standard OIM à la MDC (Meta
Data Coalition), un organisme indépendant qui se consacre à la création de normes
communes facilitant l'échange d'informations entre systèmes (métadonnées). Au
fur et à mesure que la MDC va faire évoluer le modèle, elle va encourager et aider
les autres éditeurs à prendre en charge le standard OIM au sein de leurs outils
respectifs. La MDC publie les formats XML (Extensible Markup Language) comme méthode
d'échange de données entre différents outils utilisant le standard OIM. Ce dernier
limite la complexité de l'extraction et de l'insertion des données de/dans Microsoft
Repository et les outils d'autres éditeurs.
La version actuellement validée du standard OIM (initialement soumise par Microsoft
et ses éditeurs partenaires) est la 1.0 ; une proposition de version 1.1 a été
soumise en novembre 1999, et devrait en toute logique être validée en 2000. Les
exemples et descriptions présentés dans le présent article s'appuient sur la version
1.1. Ces exemples nécessitent la version 3 de Microsoft Repository, disponible
avec SQL Server 2000. La version 2 de Repository ne supporte pas les collections
ni les propriétés héritées, que le standard OIM MDC utilise intensivement.
Le standard OIM couvre de nombreux domaines, dont :
· L'analyse et la conception d'UML, les extensions UML, les éléments génériques,
les types de données communs et la modélisation entités-relations
· Objets et composants : description des composants
· Base de données et entrepôts de données : schémas de bases de données relationnelles,
transformations de données, schémas OLAP, schémas de bases de données orientés
enregistrements, schémas XML et définitions des rapports
· Ingénierie de processus de gestion : objectifs commerciaux, règles et processus,
éléments organisationnels.
· Gestion de la connaissance : descriptions des connaissances et définitions sémantiques
D'un point de vue data warehousing, les schémas de bases de données relationnelles,
les transformations de données et les modèles de schémas OLAP sont les plus appropriés.
On peut télécharger chaque modèle en tant que fichier .mdl depuis le site Web
de la MDC, puis utiliser un outil de conception comme Visual Modeler ou Rational
Rose pour le visualiser.
Chaque objet figurant dans un référentiel peut avoir trois propriétés : un nom
(255 caractères au maximum), une courte description (255 caractères au maximum)
et des commentaires (de longueur pour ainsi dire illimitée). Ces zones, qui sont
la source d'une grand
par Kalen Delaney
La maintenance des relations logiques entre les tables est un élément essentiel de la gestion de base de données. Voici comment utiliser les nouvelles méthodes d'application de l'intégrité référentielle dans SQL Server 2000.Le maintien de relations solides est primordial.
La création et le maintien de relations logiques entre les tables constituent une partie fondamentale du travail avec des bases de données relationnelles. La plupart des bases de données doivent entretenir certaines relations, sous peine de corruption logique des données. Lorsque de telles relations existent, on dit que ces données disposent d'une intégrité référentielle. L'une des tables est la table référencée et l'autre, la table de référence ; les valeurs de la table de référence doivent correspondre aux valeurs de la table référencée. (Certaines utilisateurs qualifient cette relation de tables parent/enfant. Toutefois, cette terminologie implique une hiérarchie évitée par le modèle relationnel). SQL Server peut mettre en oeuvre automatiquement l'intégrité référentielle à travers des contraintes de clés étrangères que vous aurez préalablement définies. Cette fonction est appelée intégrité référentielle déclarative (en anglais "Declarative Referential Integrity" ou DRI) en raison de sa présence dans la définition de la table. On peut également utiliser d'autres fonctions, comme les déclencheurs, pour imposer des relations ; on parle alors d'intégrité référentielle de procédure. Dans cet article, je présente comment gérer l'intégrité référentielle dans SQL Server, en accordant une attention particulière aux nouvelles fonctions intéressantes de SQL Server 2000.
SQL Server 7.0 et les versions précédentes disposaient d'une seule méthode pour traiter les tentatives de violation des contraintes de clés étrangères. Si un utilisateur tente de modifier les données d'une table d'une manière qui pourrait violer l'intégrité référentielle (telle qu'elle est définie dans les clés étrangères), SQL Server empêche cette modification et renvoie un message d'erreur. SQL Server 2000 dispose d'une nouvelle fonction cascade pouvant traiter les violations de l'intégrité référentielle d'une autre manière, comme je vais vous le démontrer.
Pour commencer, analysons rapidement un exemple permettant de clarifier ce que représente l'intégrité référentielle. La base de données Northwind dispose d'une table appelée Orders, et d'une autre, appelée Order Details. Dans la table Orders, la colonne OrderId représente la clé primaire identifiant chaque commande de manière unique. La table Order Details possède également une colonne OrderId mais, dans cette table, la colonne est une clé étrangère qui doit correspondre à un OrderId existant de la table Orders. Dans cet exemple, la table Orders est la table référencée et la table Order Details est la table de référence. Si on définit une contrainte de clé étrangère pour mettre en oeuvre la relation entre les tables Orders et les Order Details, SQL Server vérifie que la modification de l'une de ces tables ne viole pas la relation. Si par exemple on essaye de supprimer un enregistrement de la table Orders alors que l'OrderId de cet enregistrement existe dans la table Order Details, la suppression violera la contrainte d'intégrité référentielle. Tenter de mettre à jour une colonne OrderId de la table Orders lorsque la valeur d'origine, et non la nouvelle valeur, existe dans les Order Details, constitue également une violation. En outre, SQL Server doit vérifier chaque insertion dans Order Details pour s'assurer que le nouvel OrderId existe dans la table Orders, et doit vérifier toutes les mises à jour de la colonne OrderId dans Order Details.
Les data warehouses sont un rêve pour les analystes : toute l'information concernant
les activités de l'entreprise est regroupée en un seul lieu et prête à être utilisée
par un ensemble cohérent d'outils d'analyse. Mais comment transformer le rêve
en réalité ?
Pour atteindre ce Nirvana des décideurs qu'est le data warehouse, il faut tout
d'abord bien penser le système. Vous devez comprendre le type de questions que
les utilisateurs vont lui poser (par exemple, combien de nouveaux clients par
trimestre ou quel segment de marché achète le plus d'environnements de développement
d'applications dans la région Ouest) car la raison d'être des systèmes de data
warehouse est de fournir aux décideurs l'information adaptée et à jour dont ils
ont besoin pour faire les bons choix.
Pour illustrer le processus, nous utiliserons un data warehouse créé pour une
société imaginaire fournissant des logiciels de développement d'applications,
du consulting, du personnel en délégation et des formations. Le marché évolue
très rapidement pour la société. Ses dirigeants ont donc besoin de savoir quels
ajustements dans leur modèle économique et leurs méthodes commerciales ils doivent
faire pour permettre à l'entreprise de poursuivre sa croissance. Pour aider la
société, nous avons travaillé avec l'encadrement supérieur pour concevoir une
solution.
Tout d'abord, nous avons déterminé les objectifs de l'entreprise pour ce nouveau
système. Ensuite, nous avons collecté et analysé des informations que la société.
Nous avons identifié les processus fondamentaux que l'entreprise devait surveiller
et construit un modèle conceptuel des données. Puis, nous avons situé les sources
de données et prévu les transformations nécessaires à leur appliquer. Enfin, nous
avons fixé la durée de conservation des données.
Imaginez que vous pouvez construire la maison de vos rêves. Pas de problème de
budget, mais vous voulez emménager le plus vite possible. Dans ce cas, il vous
faudra choisir entre avoir la perfection avant d'emménager et prendre possession
de la maison le plus vite possible. Vous prendrez probablement du temps pour concevoir
les fondations et les pièces essentielles, quitte à ajouter une aile ou à aménager
les combles par la suite.
Le processus d'évolution de SQL Server ressemble un peu à la construction de cette
maison. Il y a plusieurs années, Microsoft a réuni plusieurs des meilleurs spécialistes
mondiaux des bases de données (de Microsoft et d'ailleurs) et leur a demandé de
créer la base de données de leurs rêves. On peut considérer SQL Server 7.0 comme
les fondations de ce projet.
Le code de SQL Server 7.0 comportait des évolutions majeures par rapport au code
de base mais les DBA et les développeurs ne pouvaient pas voir ou utiliser de
nombreuses améliorations. Microsoft SQL Server 7.0 comportait de nombreuses améliorations
visibles (telles que les services OLAP), mais la plupart des efforts de reengineering
se situait au niveau de la page ou du stockage. J'ai découvert SQL Server 2000
à la conférence SQL Server Most Valuable Professional (MVP) de Microsoft en octobre
dernier.
Les premiers briefings portaient principalement sur l'architecture interne et
je suis reparti avec un tuyau important : SQL Server 2000 s'appuie sur les fondations
de SQL Server 7.0 et rénove une partie de la plomberie et du réseau électrique.
En fait, à bien des égards, SQL Server 2000 c'est la maison terminée, la grande
extension et les salles de projection privées dont vous avez toujours révées.
par Patrick Cross et Saeed Rahimi
Appuyez-vous sur la technologie des référentiels de données pour offrir aux utilisateurs
les meilleures sources d'informations stratégiques possibles
Ces quelques dernières années, les meilleures pratiques en matière d'entreposage
de données (data warehousing) impliquent l'utilisation d'un référentiel pour stocker
des informations sur les données contenues dans l'entrepôt. Les informations du
référentiel permettent à l'utilisateur de mesurer l'impact des modifications,
de suivre et de gérer les problèmes, et de mieux appréhender les données qu'ils
utilisent pour prendre des décisions stratégiques. Microsoft Repository est un
élément important de la stratégie Microsoft en matière de data warehousing. Avec
les exemples suivants, vous comprendrez et utiliserez le référentiel de façon
plus efficace.
par John D. Lambert
Les procédures de transfert-delta peuvent vous apporter le meilleur de la réplication
sans les coûts associés
SQL Server 7.0 rend la réplication plus simple que jamais mais, pour maximiser
votre expertise, envisagez toutes les possibilités. On peut utiliser les assistants
de réplication, DTS (Data Transformation Services), l'interface SQL-DMO (SQL Distributed
Management Objects) et même du code binaire.
Toutefois, si vous êtes déjà un utilisateur chevronné de T-SQL, pensez à apprendre
à utiliser des procédures cataloguées personnalisées pour copier les données.
Dans le présent article, je tente d'expliquer comment et dans quelles circonstances
utiliser cette méthode.
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel
Toujours activé
Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
Le stockage ou l’accès technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou la personne utilisant le service.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.