Le Service Pack 1 de Windows 2000
par Paul Thurrott
Microsoft a récemment sorti le Service Pack 1 de Windows 2000, une première collection
complète (63 Mo de données) de correctifs de bugs pour Windows 2000 Professionnel,
Windows 2000 Server, et Windows 2000 Advanced Server. La version Datacenter Server,
sortie quant à elle en même temps que le SP1, intègre déjà les correctifs de ce
dernier. Compte tenu de l'attention des entreprises pour le Service Pack 1 et
du nombre de clients qui attendent le premier Service Pack pour upgrader vers
Windows 2000, la sortie de cette mise à jour devrait provoquer une nouvelle vague
d'adoptions de Windows 2000 par les entreprises.
Objectif: 100% Linux en 2005
par Isabelle Nougier
Linux constitue aujourd'hui une priorité au sein du département Informatique du
Ministère de la Culture, le DOSI (Département de l'Organisation et des Systèmes
d'Information). En effet, l'objectif fixé à l'horizon 2005 vise l'intégration
de Linux à l'ensemble de tous les serveurs de ses 200 sites.
De gré ou de force, les constructeurs adoptent une stratégie Linux
par René Beretz
A l'heure de l'adoption de Linux en entreprise, la stratégie des constructeurs
informatiques évolue considérablement.
La stratégie des constructeurs informatiques envers les systèmes d'exploitation
a changé. Les systèmes propriétaires n'ont plus le vent en poupe et la plupart
des sociétés vantent les standards. Mais du discours à la réalité, il reste du
chemin à parcourir. Ne serait-ce que dans le monde Unix, il reste des différences
bien réelles et une concurrence effective entre AIX d'IBM, HP-UX de Hewlett-Packard
ou Solaris de Sun. Les constructeurs ont cependant sauté sans trop d'états d'âme
sur la vague Linux qui a rattrapé également les groupes de travail qui se préoccupent
de convergence d'Unix. Il est fort probable que l'avenir des différents Unix va
donc dépendre de cet outsider.
De fait, poussés par l'engouement des développeurs, les entreprises commencent
à adopter Linux et il devient donc essentiel pour les constructeurs d'être présents
sur ce créneau. En outre, il leur offre l'opportunité de se repositionner sur
le marché de l'éducation et sur certains marchés étrangers.
Les constructeurs ont cependant sauté sans trop d'états d'âme sur la vague
Linux
L'attitude des constructeurs oscille entre deux extrêmes : certains ont élaboré
une vraie stratégie Linux : ils ont adopté une attitude dynamique qui devance
le marché : c'est le cas, en particulier, d'IBM, de Hewlett-Packard et de Silicon
Graphics.
D'autres sociétés se contentent de proposer des solutions Linux pour répondre
aux attentes de leurs clients : c'est le cas de Compaq ou de Dell. Entre les deux,
Sun accompagne le mouvement tout en protégeant ses acquis.
HPRIM-NET : le premier Intranet médical développé sous Linux
par Catherine China
Intranet privé de transmission de résultats médicaux, HPRIM-NET est destiné aux
médecins et laboratoires d'analyses. Souplesse des développements, réduction des
coûts, fiabilité du système d'exploitation : autant d'arguments qui ont joué en
faveur de l'adoption de Linux par Nagora Communication, la Web agency , chargée
de sa mise en oeuvre.
Epaulé par l'association HPRIM , le corps médical oeuvre en faveur du développement
d'intranets de santé privés, pour choisir librement son système de transmissions
de FSE (Feuilles de Soins Electroniques).
C'est ainsi, qu'est né en 1998, le projet de serveur HPRIM-NET du groupe Expand
Santé. "Le Réseau Santé Social, intranet d'état, ne disposait pas d'outil de diffusion
de résultats d'analyses médicales. Notre objectif était, via cet intranet privé,
de permettre aux médecins de récupérer des résultats d'analyses de manière souple,
tout en assurant le support du protocole de transmission Kermit utilisé par les
laboratoires d'analyses." explique Kevin de Beil, chef de projet chez Nagora Communication,
société chargée du développement de la solution. En mai 1998, une première maquette
de l'application voit le jour sous Linux.
Un an plus tard, cette maquette est testée avec la participation d'une vingtaine
d'éditeurs de logiciels de gestion de cabinet médicaux (Coccilog, Apsisanté…)
"Nous avons ensuite développé une nouvelle maquette du serveur HPRIM à grande
échelle, avant de rentrer en phase d'exploitation en janvier 2000." assure Kévin
de Beil.
Objectif du projet. Développement d'une application d'intranet médical sous Linux respectant les spécificités des télétransmissions aux normes Kermit/HPRIM. |
Grâce à la souplesse de Linux et à la disponibilité gratuite de tous les protocoles de communication, nous avons pu partir sur une maquette technique, l'arrêter en cours de route, repartir sur une autre alternative
Coûts et bénéfices de la solution Coûts : Le coût de développement de la solution (y compris le support hot line des éditeurs de logiciels médicaux) a été d'environ 600 kF, soit l'équivalent d'une année-homme. Coût de la formation Linux par Erian- Concept : environ 45.000 Francs. Bénéfices : - Souplesse de développement grâce à la disponibilité gratuite des codes sources et des protocoles de communications - Réduction des coûts de développements. - Simplicité de l'administration. |
Nagora Communication : fiche d'identité Agence Internet spécialisée dans la communication multimédia et la création de sites Web, appartenant au groupe Nagora. Effectif groupe 1999 : 85 personnes Siège à Paris et support de production à Nice |
Jeune et déterminée
par Isabelle Nougier
Le marché des logiciels libres croit évidemment de façon vertigineuse ces derniers
temps, et des sociétés comme IdealX apparaissent aujourd'hui sur le devant de
la scène pour promouvoir ces logiciels libres et accompagner les entreprises dans
leurs projets Open Source
Linux : anatomie
par Xavier Facélina
Cet article aborde le système Linux non pas par son histoire ou par son positionnement
philosophique, politique ou économique, mais par sa structure technique. En traitant
différents aspects de Linux, en allant du plus proche de la machine au plus éloigné,
nous devrions arriver à une compréhension globale de ce qu'est réellement Linux.
Au coeur du système : un noyau (kernel). Tout est là . Linux s'articule tout entier
autour de ce noyau dont le développement est réalisé par la communauté des kernel-developers,
sous l'oeil vigilant de Linus Torvald en personne.
Virus : éduquez les utilisateurs
par David Chernicoff
Depuis le début de l'année, ma boîte de réception d'e-mails semble devoir contenir
chaque jour un message de mon fournisseur d'antivirus. Ces messages contiennent
des alertes à propos de nouveaux virus et comportent des liens vers des sites
Web d'où l'on peut télécharger des fichiers permettant de protéger mon réseau
contre ces programmes malins. La majorité de ces messages concernent des alertes
et mises à jour concernent des formes diverses de virus macro qui ciblent en priorité
Microsoft Word ou Excel.
Comme tout bon administrateur réseau responsable, je télécharge toujours les mises
à jour des applications antivirus et les applique aussi bien sur les serveurs
que sur les clients. Je n'informe pas les utilisateurs de ces mises à jour : je
les mets en oeuvre, simplement. Or, je suis convaincu que la plupart des administrateurs
systèmes appliquent la même méthode et c'est là que réside le problème.
Peut-on vivre sans Active Directory ?
par Mark Minasi
Si vous n'avez pas encore entamé votre migration vers Active Directory (AD), vous
n'êtes pas seuls. Les entreprises semblent actuellement se poser la question suivante
: « Nous voulons bénéficier de toutes les fonctions améliorées de Windows 2000,
et nous irons vers AD, mais la mise en oeuvre d'Active Directory semble être une
première marche bien haute à franchir dans le déploiement de Windows 2000. Que
se passerait-il si nous procédions au déploiement de Windows 2000 sur les postes
de travail et sur les serveurs membres et que nous attendions pour déployer AD
plus tard ? Que perdrions-nous à cela ? »
Les solutions de clustering de Microsoft
par Greg Todd
Au fil des ans Microsoft s'est efforcé d'étendre la capacité de montée en charge,
la disponibilité et la fiabilité de ses solutions serveurs. Le clustering est
un moyen éprouvé d'atteindre cet objectif et Microsoft l'a adopté en vue d'en
faire un élément à part entière de ses systèmes d'exploitation et de ses offres
produits. Avec la sortie de Windows 2000, les solutions de clustering de Microsoft
ont fait un bond en avant considérable vers la maturité.
SMP et traitements parallèles sur AS/400
par James Steward et Dan Cruikshank
Le parallélisme donne un réel coup de pouce aux performances. Certes, mais est-ce
toujours dans la bonne direction ?
Peu après les problèmes systèmes survenus chez e-Gads (voir l'article "The Case
of the Missing Index", NEWS/400, août 2000), nous avons discuté, Dan et moi-même,
la nécessité de publier quelques informations de base à propos du parallélisme
sur AS/400. Il faut se souvenir que les dysfonctionnements d'e-Gads étaient provoqués
(en partie) par le parallélisme des requêtes. La valeur système QQRYDEGREE était
définie pour utiliser le parallélisme des I/O (*IO). La requête à problème tournait
en haute priorité et le gros fichier d'historique financier détaillé existait
sur la plupart (si ce n'est sur tous) des bras disque. Ainsi, la mise en oeuvre
de la requête de l'optimiseur des requêtes lisait de manière dynamique depuis
ces bras en parallèle, et provoquait la dégradation des autres travaux du système.
La situation d'e-Gads est un parfait exemple de la manière dont le parallélisme
peut entraîner des difficultés si on ne prend aucune précaution.
La stratégie de croissance d'IBM pour les AS/400 haut de gamme a été de mettre
en place des systèmes plus grands, utilisant plusieurs processeurs. Cette approche
améliore considérablement le traitement interactif et les taux de transmission
des transactions associés. En revanche, pour les traitements classiques des travaux
par lot à une seule unité de traitement, cela signifie des systèmes largement
sous-utilisés.
Le parallélisme peut entraîner des difficultés si on ne prend aucune précaution
Lorsque les systèmes bi-processeurs sont apparus, Dan et moi avons commencé à
répondre à des questions du genre : "Pourquoi ne puis-je pas exploiter mon système
à plus de 50 % d'utilisation de CPU pendant les heures creuses ?" Nous avons encouragé
les traitements parallèles et nos analyses sur la conception d'applications étaient
centrées sur l'utilisation de cette fonctionnalité. Avec des systèmes à 4, 8 et
12 processeurs, les traitements parallèles deviennent encore plus judicieux. Nous
recevons encore des appels mais, aujourd'hui, avec un système à 12 processeurs,
les questions ressemblent à ceci : "Pourquoi ne puis-je pas exploiter mon système
à plus de 10 % d'utilisation de CPU pendant les heures creuses ?"
Les demandes des requêtes impliquent en général, le traitement de gros volumes
d'I/O. Ainsi, le parallélisme, tout comme les traitements par lot, profite du
traitement des requêtes sur AS/400. Les améliorations récentes apportées au système
ont été centrées sur les traitements parallèles ; il existe même une fonction
OS/400 téléchargeable permettant d'étendre l'utilisation du parallélisme du système.
Si elle est installée, la fonction SMP (Symmetrical Multiprocessing) permet de
diviser automatiquement certains travaux de requête en plusieurs tâches pouvant
être traitées simultanément par plusieurs processeurs. J'entends, par travaux
de requête, toutes les requêtes utilisant l'optimiseur de requêtes. Par conséquent,
SQL, Query/400, OPNQRYF, ODBC, l'API de requêtes, DRDA (Distributed Relational
Database Architecture) et JDBC figurent parmi les interfaces tirant profit de
SMP.
Méthodes d'accès utilisant le parallélisme | |
Méthodes d'accès aux données sans clés Parallel table scan Parallel skip sequential Parallel pre-fetch Parallel table pre-load Méthodes d'accès aux données avec clé Key positionning and parallel key positionning Key selection and parallel key selection Parallel index pre-load |
Parallélisme SMP SMP I/O I/O Parallélisme SMP SMP I/O |
La tâche de l'optimiseur de requêtes consiste à développer l Lire l'article
RPG IV : format libre et bien plus encore
par George N. Farr
Le RPG a un brillant avenir dans des applications e-business
Dans les discussions avec des programmeurs AS/400 rencontrés au cours de mes voyages
autour du monde, la plupart des questions tournent autour du même thème. Par exemple
:
· " Le RPG IV est-il destiné à durer, ou IBM essaie-t-elle de le tuer ? "
· " La V4R5 ne comporte aucune amélioration du RPG IV. Serait-ce qu'IBM n'envisage
plus d'améliorations du RPG ? "
· " IBM est-elle en train de remplacer le RPG en transformant l'AS/400 en une
machine Java ? "
· " Java est-il le seul moyen d'écrire des applications e-business sur l'AS/400
? "
Ces questions témoignent des inquiétudes sur l'avenir de l'AS/400, et du RPG en
particulier, j'aimerais y répondre dans cet article.
Il ne faut pas non plus, à moins d'avoir une bonne raison, plonger complètement
dans Java
JDBC 2.0 : les nouveautés
par Richard Dettinger
Le JDBC 2.0 comprend plusieurs nouvelles méthodes, une fonction de mise à jour
batch et la prise en charge de types de données SQL3
Face à l'expansion de l'univers Java, il est de plus en plus difficile de connaître
toutes les nouvelles fonctions. La release de JDBC (Java Database Connectivity)
2.0 (qui est un élément standard de JDK (Java Development Kit) 1.2, ou Java 2)
illustre bien cette rapide croissance des fonctionnalités. JDBC 2.0 offre de nouvelles
fonctions intéressantes. En avant-première, cet article vous apprend à utiliser
ces nouvelles fonctions sur AS/400 en évitant les pièges. Sauf indication contraire,
les exemples et les diverses méthodes de cet article s'appliquent également aux
drivers JDBC natifs et AS/400 for Java Toolbox. (Pour plus d'informations sur
JDBC et ses drivers, voir la bibliographie)
Avant de pouvoir utiliser JDBC 2.0, il faut bien sûr l'installer sur l'AS/400.
Pour utiliser JDBC 2.0 avec le driver JDBC natif, il faut être en V4R4. On peut
également l'obtenir sous la forme de la PTF 5769JV1 SF55645. Le support de JDBC
2.0 est standard sur l'OS/400 à partir de la V4R5. L'utilisation de JDBC 2.0 avec
le driver JDBC Toolbox est possible à partie de la release Mod 2. Pour apprendre
à utiliser les nouvelles fonctions dans les releases JDK précédentes, voir l'encadré
" Utiliser la fonctionnalité JDBC 2.0 dans JDK 1.1 ". Voyons maintenant de plus
près comment fonctionne le JDBC 2.0.
Tirer toute la puissance de la console d’administration de Windows 2000
2ème Partie
par Kathy Ivens
Dans la première partie de cet article parue le mois dernier, nos avons vu les
bases de la MMC (Microsoft Management Console). Voici les meilleures surprises
que vous réserve la MMC. Il y a trop de fonctions sympathiques dans la MMC pour
toutes les faire tenir dans cet article. J'ai donc sélectionné mes favorites.
Connecter votre petit réseau à l’Internet
par Mark Minasi
Un des principaux problèmes que rencontrent les administrateurs de réseaux est
la connexion des LAN à l'Internet. Ce mois-ci, nous allons donc voir quelles sont
les dernières méthodes pour cela et nous comparerons certaines des nouvelles possibilités
de routage qu'offrent, aux petits groupes, les fonctions ICS (Internet Sharing
Connexion) et NAT (Network Address Translation) de Windows 2000.
Faciliter la migration vers Windows 2000 avec ADMT
par Martin McClean
Au fur et à mesure que Windows 2000 s'affirme sur le marché informatique, les
entreprises sont de plus en plus nombreuses à envisager la migration de leurs
environnements Windows NT 4.0. Pour migrer un réseau de Windows NT 4.0 vers Windows
2000 (en effectuant une migration des forêts entre elles), il existe deux choix
possibles : mettre à niveau les domaines ou les restructurer.
Une mise à niveau des domaines, ou mise à niveau sur place, consiste à migrer
le PDC et les BDC d'un domaine Windows NT 4.0 vers Windows 2000 Server. C'est
la méthode de migration la plus commune et la voie la plus directe, la moins risquée
à suivre.
Une restructuration, ou consolidation de domaines, consiste à créer une forêt
Windows 2000 et à y migrer les domaines Windows NT 4.0 existants. Cette méthode
permet de concevoir une forêt idéale et de consolider ou de fusionner des domaines
NT 4.0, si nécessaire. Elle permet aussi de revenir à l'environnement Windows
NT existant à tout moment, puisqu'elle établit un environnement parallèle pour
migrer le réseau. Elle permet donc un développement permanent de la structure
Windows 2000, tout en préservant l'ancien environnement de production Windows
NT.
Jusqu'à récemment, la majorité des migrations étaient des mises à niveau sur place.
L'autre méthode, à savoir la restructuration des domaines, posait souvent des
problèmes pour réaliser une migration en douceur des utilisateurs et des groupes
entre les domaines. Pour les résoudre, Microsoft a sorti l'outil AMDT (Active
Directory Migration Tool). Il s'agit d'un ensemble d'assistants de migration faciles
à utiliser, prenant chacun en charge une tâche distincte. Avec eux, la mise en
oeuvre d'une restructuration de domaines devient un jeu d'enfant.
Les composants d’un système à haute disponibilité
par David Chernicoff
Les médias foisonnent d'informations sur les technologies matérielles et logicielles
permettant aux serveurs d'atteindre les tout derniers progrès en matière de performances
- à savoir 99,999 pour cent de temps de bon fonctionnement du matériel et des
applications, ce qui n'est pas rien. Car passer ne serait-ce que de 98 à 99 pour
cent de temps de bon fonctionnement implique déjà un accroissement important des
coûts de matériels et de logiciels. C'est dire si ce cinquième neuf en plus va
occasionner une augmentation de coût exponentielle !
Fort heureusement, rares sont les applications nécessitant un tel pourcentage
(cinq neuf) de bon fonctionnement. La plupart des administrateurs réseaux se contenteraient
de deux neuf (c'est-à -dire 99 pour cent de temps de bon fonctionnement), ce qui
est beaucoup plus facile à atteindre. Dans tous les cas, qu'il s'agisse d'une
plate-forme serveur Windows 2000 ou Windows NT 4.0, il faut, pour mettre en place
une base solide pour des serveurs fiables prendre un certain nombre de décisions
spécifiques sur les logiciels serveurs, et sur l'achat et le déploiement des matériels
serveurs.
Les 4 facteurs clés des performances d’Exchange Server
par Paul Robichaux
Dans les chaînes de restauration rapide, il est généralement possible de commander
un menu « plus ». Le principe est simple : vous obtenez plus de nourriture pour
une somme supplémentaire symbolique. Pourquoi ne pas appliquer cette logique à
notre marché ?
Imaginez la conversation suivante entre vous et votre fournisseur de systèmes
:
Vous : " J'aimerais acquérir un serveur bi-processeur Pentium III Xeon avec 512
Mo de RAM et un disque de 9 Go s'il vous plait. "
Le constructeur : " Désirez-vous essayer notre serveur super spécial de la semaine
? Pour seulement 100 Francs de plus, vous obtenez une grappe RAID 5 de 3 disques
de 18 Go et une copie gratuite de Quake III ? "
Si seulement il était possible d'acquérir des systèmes Exchange Server de cette
façon… Une des raisons pour lesquelles il est si difficile de maximiser les performances
d'Exchange Server, est qu'il est très difficile d'isoler un unique facteur qui,
à lui seul, est en mesure de modifier sensiblement les performances. De nombreuses
personnes pensent que les performances d'un ordinateur dépendent exclusivement
de la vitesse d'horloge de son processeur ? à l'ancienne époque, lorsqu'un processeur
8086 cadencé à 4 MHz était considéré comme puissant, cette conviction était peut-être
vraie. Mais avec les ordinateurs et les systèmes d'exploitation actuels, les performances
dépendent généralement de 4 ressources - la CPU, la mémoire, le sous-système de
disques et le réseau - et de la façon dont les applications d'un ordinateur cible
utilisent ces ressources. En comprenant ces ressources et processus, on peut apprendre
comment booster chacune des ressources (et donc les performances qu'on peut en
obtenir) pour en tirer l'efficacité maximum.
La sécurité de Windows 2000 et d’Exchange 2000
par Jan De Clercq
Du fait de son étroite intégration avec Active Directory (AD) de Windows 2000,
Exchange 2000 Server profite non seulement des fonctions de sécurité de ce dernier,
mais bénéficie aussi d'autres améliorations de la sécurité Windows 2000, notamment
en matière d'authentification, de contrôle d'accès et d'audit.
Mettre en place des stratégies d’accès distant
par Douglas Toombs
Il y a 5 ou 6 ans, deux grands acteurs s'affrontaient autour d'une proie alléchante,
baptisée « part de marché ». Celle qui remporterait la plus grosse part serait
adorée par les richissimes habitants consensuels d'un pays mystique répondant
au nom implacable de Wall Street. A l'époque cette part était entre les griffes
de Novell et Microsoft la convoitait.
Ceux de nos lecteurs qui fréquentent l'univers de l'informatique depuis suffisamment
longtemps pour se rappeler les premiers pas de Windows NT, savent que si Microsoft
a pu glisser un pied dans la porte (y compris de certains comptes Novell purs
et durs), c'est grâce à l'ajout à NT de services inexistants sur les autres plates-formes.
A l'époque, un de ces cadeaux gratuits les plus connus fut le service d'accès
à distance RAS. Ses concurrents les plus acharnés étaient les périphériques matériels
propriétaires et Novell NetWare Connect, mais leurs coûts de licences par port
étaient très élevés.
Windows NT s'est lentement infiltré dans les organisations en introduisant l'un
après l'autre des services gratuits répondant à des besoins spécifiques des consommateurs.
Malheureusement, bon nombre de ces " plus " n'ont pas atteint la même maturité
que Windows NT au fil des ans. Malgré quelques améliorations à chaque révision
du système d'exploitation, RAS s'est avéré insuffisant dans certains domaines
importants pour entreprises, en particulier pour ce qui est de gérer quel utilisateur
peut se connecter à un serveur RAS et à quel moment. Le RAS de NT n'est pas étranger
à la sécurité des domaines et aux stratégies de comptes, mais les administrateurs
veulent souvent pouvoir contrôler davantage les utilisateurs appelant de l'extérieur.
Pour répondre à leurs attentes, Microsoft a ajouté à Windows 2000 Server des stratégies
d'accès à distance que RAS peut appliquer aux connexions entrantes.
Une introduction aux vues indexées
par Karen Delaney
SQL Server 2000 ouvre une voie alternative pour atteindre des performances maximales
Remarque : Les auteurs ont basé leurs articles SQL Server 2000 sur des versions antérieures à la Bêta 2. Aussi, il se peut que vous remarquiez quelques différences entre la Bêta 2 et le comportement ou les interfaces décrits dans cet article. En particulier, veuillez noter que la fonction vues indexées ne sera disponible que dans SQL Server 2000 Enterprise Edition. Toutefois, on peut installer Entreprise Edition sur un serveur NT 4 ou Windows 2000 (W2K). On n'est pas obligé d'utiliser NT 4.0 Enterprise ou W2K Advanced Server. |
Le puissant et récent support de SQL Server 2000 des vues indexées promet de nous faciliter la tâche tout en exécutant les applications et requêtes plus rapidement. Cela vous semble trop beau pour être vrai ? Les vues indexées permettent de précalculer toutes sortes de jointures, agrégations et formules pour que l'on n'ait plus à écrire ces conditions dans chaque requête. De plus, Microsoft déclare obtenir des gains de performance de 10 à 100 fois supérieurs au sein des applications et requêtes accédant aux vues indexées par rapport aux tables de base. Bien qu'Oracle supporte une fonctionnalité similaire, appelée vues matérialisées, les nouvelles vues indexées de SQL Server vont bien au-delà de ce qu'offre la concurrence.
Les nouvelles vues indexées de SQL Server vont bien au-delà de ce qu'offre la concurrence
Vues indexées ou vues matérialisées ? Vous avez peut-être entendu parler du concours doté d'un prix d'un million de dollars organisé par Oracle lorsque Microsoft a lancé SQL Server 7.0. Ce concours a été modifié trois fois, mais la version finale ressemble à ceci : "Oracle Corp. versera la somme d'un million de dollars à la première personne capable de démontrer que SQL Server 7.0, avec une base de données TPC-D d'un Tera-octets peut se rapprocher à 1/100 près des meilleures performances publiées à ce jour par Oracle pour la requête n°5 du standard TPC-D actuel (version 1.3.1). Pour être éligible, le candidat doit réaliser un test TPC-D sur 1 To complet, répondant à toutes les contraintes de chargement, de mise à jour et de recherche des données, et publier un rapport intégral de toutes les mesures de performances. Le candidat peut utiliser n'importe quelle plate-forme habilitée à héberger SQL Server 7.0. Les tests doivent être validés par un organisme certifié TPC". Oracle était sûr de son fait, car son système prenait déjà en charge une fonctionnalité appelée "Vues matérialisées". Etant donné que le TPC (Transaction Processing Performance Council) documente de manière exhaustive les spécifications de ses benchmarks, Oracle a été en mesure de créer des vues matérialisées correspondant aux requêtes exécutées au cours du benchmark. Ainsi, il suffit à la base de données de lire les résultats pré-calculés depuis le disque, sans avoir à effectuer aucun traitement. Si SQL Server 7.0 avait pris en charge les vues indexées, Oracle n'aurait jamais organisé ce concours. Les vues indexées de SQL Server 2000 présentent plusieurs avantages par rapport aux vues matérialisées d'Oracle. Tout d'abord, les vues matérialisées ne sont pas dynamiques. Il faut les rafraîchir manuellement pour prendre en compte les modifications intervenues dans les données. Ensuite, l'optimiseur de requêtes d'Oracle ne prévoit pas de façon automatique l'utilisation d'une vue matérialisée si on ne précise pas directement le nom de la vue dans la clause FROM de la requête. Qu'on utilise des vues indexées ou matérialisées, dans les deux cas, il faut con Lire l'article Les plus consultés sur iTPro.fr
La Revue du Décideur ITX
|