Comment tout savoir sur SQL Server 2000
La nouvelle version atteint de nouveaux sommets
Remarque : Les auteurs ont basé leurs articles SQL Server 2000 sur des versions
antérieures à la Bêta 2. Aussi, il se peut que vous remarquiez quelques différences
entre la Bêta 2 et le comportement ou les interfaces décrits dans cet article.
En particulier, veuillez noter que la fonction vues indexées ne sera disponible
que dans SQL Server 2000 Enterprise Edition. Toutefois, on peut installer Entreprise
Edition sur un serveur NT 4 ou Windows 2000 (W2K). On n'est pas obligé d'utiliser
NT 4.0 Enterprise ou W2K Advanced Server.
Imaginez que vous ayez la possibilité de construire la maison de vos rêves, dans
laquelle vous projetez d'élever vos enfants au cours des 20 prochaines années.
L'argent n'est pas un problème, mais vous voulez emménager le plus tôt possible.
Dans ce cas, vous allez être obligé de faire des concessions, et de choisir entre
avoir une maison parfaitement aménagée avant d'y habiter et pouvoir y emménager
le plus tôt possible. Vous allez passer du temps à concevoir soigneusement les
pièces principales de la maison, sachant que vous pourrez toujours terminer le
sous-sol ou rajouter une grande terrasse après avoir emménagé. Comparons ce processus
à la construction de SQL Server.
Il y a plusieurs années, Microsoft a regroupé les meilleurs spécialistes de la
conception des bases de données à travers le monde (internes et externes à Microsoft)
et leur a demandé de bâtir la base de données de leurs rêves. Considérez SQL Server
7.0 comme le résultat fondamental de ces efforts. SQL Server 7.0 est une réécriture
importante du code de base, mais les administrateurs de bases données et les développeurs
ne pouvaient pas voir ni toucher beaucoup de ces améliorations. En effet, SQL
Server 7.0 apporte une kyrielle de nouvelles fonctionnalités importantes (comme
les services OLAP). Mais une grande partie du réingéneering du noyau se situe
au niveau de la gestion des pages et de la mémoire. Pour la première fois en Octobre
1999, j'ai vu SQL Server 2000 lors de la conférence MVP (Most Valuable Professional)
de Microsoft.
Les premiers séminaires couvraient l'architecture interne des moteurs relationnels
et de la mémoire, et je suis reparti avec le sentiment très fort que SQL Server
2000 s'appuie sur les fondations de SQL Server 7.0 et y rajoute "la plomberie
et l'électricité". A bien des égards, SQL Server 2000 ressemble à ce sous-sol
terminé, cette énorme terrasse et ce studio de projection personnel dont vous
avez toujours rêvé.
Il peut désormais rivaliser d'égal à égal avec n'importe quelle plate-forme
de base de données concurrentes
Optimiser NT et IIS pour les pages ASP
Les pages actives ASP sont utilisées par de nombreuses entreprises, d'Internet aux intranets d'entreprise et de nombreux administrateurs système choisissent Windows NT Server et Internet Information Server pour les faire tourner. Cependant, Windows NT et IIS doivent être optimisés pour offrir de bonnes performances.
Si vous voulez tirer le meilleur des applications ASP (Active Server Pages), vous
rencontrerez le succès en configurant Windows NT Server pour en faire une plate-forme
efficace pour Internet Information Server (IIS) et en faisant quelques modifications
simples mais essentielles à la configuration d'IIS afin qu'il aide vos serveurs
à fonctionner de façon optimale.
Souvenez-vous qu'il vous faut tester vos applications et optimiser l'environnement
de votre serveur à mesure que vous faites les changements. Faites une check-list
des paramètres de vos serveurs afin d'être sûr que vous avez configuré chaque
serveur correctement. Automatisez l'installation de vos serveurs autant que vous
le pouvez pour configurer les serveurs rapidement et sans risque d'erreur.
Si tous vos serveurs ont la même configuration matérielle, vous pouvez envisager
d'utiliser Norton Ghost, ou tout autre utilitaire équivalent de réplication automatique,
pour installer vos nouveaux serveurs. Si vous utilisez un utilitaire pour répliquer
les serveurs, assurez-vous que l'utilitaire vous permet de créer un SID pour chaque
serveur.
En outre, testez le processus de réplication sur un seul système avant de créer
plusieurs serveurs. Personne ne veut répliquer un système dont les applications
sont mal paramétrées. Il est possible également que vous rencontriez des problèmes
avec la métabase d'IIS sur les systèmes répliqués si le SID change. Si de tels
problèmes devaient survenir, vous pourriez devoir réinstaller IIS sur la machine
concernée.
Les 7 étapes vers le data warehouse
Les data warehouses sont un rêve pour les analystes : toute l'information concernant
les activités de l'entreprise est regroupée en un seul lieu et prête à être utilisée
par un ensemble cohérent d'outils d'analyse. Mais comment transformer le rêve
en réalité ?
Pour atteindre ce Nirvana des décideurs qu'est le data warehouse, il faut tout
d'abord bien penser le système. Vous devez comprendre le type de questions que
les utilisateurs vont lui poser (par exemple, combien de nouveaux clients par
trimestre ou quel segment de marché achète le plus d'environnements de développement
d'applications dans la région Ouest) car la raison d'être des systèmes de data
warehouse est de fournir aux décideurs l'information adaptée et à jour dont ils
ont besoin pour faire les bons choix.
Pour illustrer le processus, nous utiliserons un data warehouse créé pour une
société imaginaire fournissant des logiciels de développement d'applications,
du consulting, du personnel en délégation et des formations. Le marché évolue
très rapidement pour la société. Ses dirigeants ont donc besoin de savoir quels
ajustements dans leur modèle économique et leurs méthodes commerciales ils doivent
faire pour permettre à l'entreprise de poursuivre sa croissance. Pour aider la
société, nous avons travaillé avec l'encadrement supérieur pour concevoir une
solution.
Tout d'abord, nous avons déterminé les objectifs de l'entreprise pour ce nouveau
système. Ensuite, nous avons collecté et analysé des informations que la société.
Nous avons identifié les processus fondamentaux que l'entreprise devait surveiller
et construit un modèle conceptuel des données. Puis, nous avons situé les sources
de données et prévu les transformations nécessaires à leur appliquer. Enfin, nous
avons fixé la durée de conservation des données.
Trois façons de maigrir
Dans notre numéro de mai 1998, nous avions testé les beta 1 de Terminal Server et de MetaFrame de Citrix Systems ainsi que la MaxStation de Maxspeed pour l'article " Enfants de l'Hydre ". Depuis, les environnement NT multiutilisateurs ont évolué. Voici donc les pages " minceur " que tout bon magazine se doit de proposer pour l'été.
Lire l'articleMesurer et administrer les performances des applications NT Workstation
Quand il s'agit d'obtenir des performances maximales de Windows NT Workstation 4.0, la première chose qui vient à l'esprit est qu'il suffit d'éliminer le shell de l'explorateur, d'utiliser une interface d'invite de commandes et de ne pas exécuter ces fichues applications graphiques. Moyennant quoi NT Workstation va décoller. C'est ce que j'appelle la " mentalité table rase ", d'ailleurs répandue chez les disciples d'UNIX, persuadés, parfois non sans raison, que les applications graphiques sont cause de ralentissement. En fait, les performances du noyau de Windows NT n'ont aucune importance, puisque Windows NT Workstation fonctionne dans un environnement graphique et exécute des applications graphiques. Dans la plupart des cas, on ne peut pas désactiver le shell de l'Explorateur Windows sans invalider la fonctionnalité du système. Il est donc temps de réexaminer d'un oeil neuf comment mesurer et gérer les performances des postes de travail Windows NT afin de profiter au maximum de cet investissement. Pour commencer, les compteurs de l'analyseur de performances permettent d'identifier les applications posant des problèmes, ce qui est un point de départ très utile. Par ailleurs, certains utilitaires du Kit de ressources de Windows NT Workstation 4.0 aident à mesurer et à surveiller les problèmes de performances.
Lire l'articleUne nouvelle étape pour le groupe RMH
La récente fusion des groupes TMA et RMH est l'occasion pour RMH de présenter sa nouvelle organisation.
Lire l'articleLe Triangle d’Or
par Samy Mosimann Dans le monde de la banque privée, la place de l'AS/400 reste prépondérante, avec un facteur de 1 à 8 par rapport au nombre d'installations Unix Genève, Zurich et Luxembourg sont les trois sommets du triangle d'or de l'activité bancaire privée en Europe. Ces banques sont des établissements qui ne se comparent pas aux grandes banques nationales ou publiques européennes. Elles sont moins importantes et emploient de moins de 40 à plus de 500 employés. Globalement, on peut estimer qu'environ 1000 banques sont en activité dans ce domaine en Suisse et au Luxembourg.
Lire l'articleGérer la charge des serveurs Web
Au fur et à mesure du développement du commerce électronique, les entreprises
sont de plus en plus nombreuses à compter sur leurs sites Web pour communiquer
avec les clients. Un site Web très performant, délivrant rapidement et en toute
fiabilité du contenu, accroît sa clientèle, la fidélise et joue un rôle crucial
pour un commerce électronique prospère et compétitif.
Les clients potentiels ne seront pas enclins à retourner sur un site Web, s'ils
sont frustrés par sa lenteur et se heurtent à des retards importants ou à des
défaillances. Ainsi, dans le cadre de la planification et de la mise en oeuvre
de l'infrastructure Web d'une entreprise, il faut prendre en compte sérieusement
l'amélioration des performances de son site Web.
Il existe plusieurs méthodes pour améliorer les performances du Web : augmenter
la bande passante Internet, utiliser un équipement de réseau rapide, concevoir
des applications Web efficaces, optimiser et mettre à niveau les logiciels et
les matériels des serveurs Web, et utiliser une technologie de Web-caching.
Il est également possible d'améliorer les performances d'un site Web en ajoutant
des serveurs Web et des sites et en mettant en miroir le contenu entre tous les
serveurs et les sites. Cette méthode permet de partager la charge globale entre
les serveurs et les sites et de réduire le retard d'exécution des informations,
occasionné par le traitement interne des requêtes des clients d'un serveur.
Elle permet, en outre, de conserver des serveurs existants plutôt que de les éliminer
pour faire de la place à de nouveaux serveurs.
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger
un seul serveur avec le trafic du Web, alors que d'autres restent inactifs. Pour
équilibrer la charge entre les serveurs Web, on fait traditionnellement appel
à la fonction " à tour de rôle " du DNS qui permet de distribuer équitablement
les adresses IP des serveurs Web entre les clients ; ainsi, les serveurs Web sont
tous accessibles à égalité.
Mais ce mécanisme ne permet pas d'équilibrer la charge dans un environnement où
les serveurs Web ont différentes capacités matérielles et logicielles. Par exemple,
un système Windows 2000 Server avec deux processeurs Pentium III à 450 MHz et
2 Go de mémoire devrait traiter plus de charge dans un environnement à équilibrage
de charge qu'un système Windows NT Server avec un processeur Pentium II à 300
MHz et 256 Mo de mémoire.
Or la fonction " à tour de rôle " de DNS traite ces deux systèmes à égalité ;
elle ignore la disponibilité d'un serveur Web, parce qu'elle ne détecte pas si
le serveur est en marche ou arrêté.
Le partage, ou l'équilibrage, de la charge entre plusieurs serveurs évite de surcharger
un seul serveur avec le trafic du Web, alors que d'autres restent inactifsRécemment,
des éditeurs indépendants ont développé des load balancers ou équilibreurs de
charge, c'est-à -dire des produits permettant d'équilibrer la charge uniformément
entre plusieurs serveurs et garantissant en outre la tolérance aux pannes des
serveurs Web en redirigeant le trafic et les clients vers un autre serveur ou
site en cas de défaillance.
Ainsi, les clients subissent moins de retards et de pannes. Les équilibreurs de
charge peuvent s'utiliser dans des scénarios monosite ou multisite Web. Qu'est-ce
qu'un équilibreur de charge, comment fonctionne-t-il ? Autant de questions importantes
à prendre en considération avant de faire son choix.
SQL Server 2000 : vers les sommets
Imaginez que vous pouvez construire la maison de vos rêves. Pas de problème de
budget, mais vous voulez emménager le plus vite possible. Dans ce cas, il vous
faudra choisir entre avoir la perfection avant d'emménager et prendre possession
de la maison le plus vite possible. Vous prendrez probablement du temps pour concevoir
les fondations et les pièces essentielles, quitte à ajouter une aile ou à aménager
les combles par la suite.
Le processus d'évolution de SQL Server ressemble un peu à la construction de cette
maison. Il y a plusieurs années, Microsoft a réuni plusieurs des meilleurs spécialistes
mondiaux des bases de données (de Microsoft et d'ailleurs) et leur a demandé de
créer la base de données de leurs rêves. On peut considérer SQL Server 7.0 comme
les fondations de ce projet.
Le code de SQL Server 7.0 comportait des évolutions majeures par rapport au code
de base mais les DBA et les développeurs ne pouvaient pas voir ou utiliser de
nombreuses améliorations. Microsoft SQL Server 7.0 comportait de nombreuses améliorations
visibles (telles que les services OLAP), mais la plupart des efforts de reengineering
se situait au niveau de la page ou du stockage. J'ai découvert SQL Server 2000
à la conférence SQL Server Most Valuable Professional (MVP) de Microsoft en octobre
dernier.
Les premiers briefings portaient principalement sur l'architecture interne et
je suis reparti avec un tuyau important : SQL Server 2000 s'appuie sur les fondations
de SQL Server 7.0 et rénove une partie de la plomberie et du réseau électrique.
En fait, à bien des égards, SQL Server 2000 c'est la maison terminée, la grande
extension et les salles de projection privées dont vous avez toujours révées.
PPTP est-il sûr ?
Ces dernières années, les utilisateurs et les hackers ont révélé de sérieux défauts
dans l'implémentation par Microsoft de PPTP, le composant de RAS permettant d'établir
des réseaux privés virtuels. Les hotfixes de Microsoft corrigent-ils les lacunes
de PPTP ?
Les premiers grondements éloignés, annonciateurs de l'orage, se sont manifestés
en avril 1998, quand les utilisateurs ont posé des questions sur la sécurité de
PPTP dans les forums de sécurité. Ces questions étaient généralement suivies par
des descriptions d'éventuelles vulnérabilités des réseaux privés virtuels (VPN
pour Virtual Private Network).
En juin 1998, Counterpane Systems a sorti " Cryptanalysis Microsoft's Point-to-Point
Tunneling Protocol " (http://www.counterpane.com/pptppaper.html),
une analyse formelle démontrant les vulnérabilités de PPTP. Quelque temps plus
tard, L0pht Heavy Industries, (http://www.L0pht.com)
a sorti Readsmb (qui accompagne L0phtCrack 2.0), un programme renifleur capable
de déduire les mots de passe d'utilisateurs à partir des questions/réponses traversant
la plupart des réseaux NT. (Pour en savoir plus sur Readsmb, voir l'article "
Protégez vos mots de passe " de décembre 1998).
Au moment où la communauté de la sécurité révélait ces vulnérabilités, Microsoft
était en train de développer les mises à jour de la spécification PPTP et les
versions du code consécutives. En août 1998, Microsoft a sorti trois corrections
pour PPTP et d'autres mises à jour de DUN.
Les utilisateurs et les hackers ont révélé plusieurs faiblesses de PPTP compromettant
la sécurité du système
L'an dernier, on a eu beaucoup de mal à suivre l'évolution des choses tant
la confusion était grande entre les déclarations des hackers et les réponses de
Microsoft. La question de la sécurité de PPTP reste donc d'actualité. Pour répondre
à cette question, je vais détailler les faiblesses de PPTP et expliquer comment
Microsoft a réussi à les corriger avec les améliorations successives de la mise
à jour PPTP3. J'indiquerai aussi où trouver les améliorations de sécurité de Microsoft.
Le top 10 des commandes batch
Le Kit de ressources de Windows NT Server 4.0 comporte de nombreuses commandes batch. Cer article liste les dix commandes que j'utilise le plus. Il n'a pas été facile de ne choisir que dix commandes parmi les nombreux utilitaires du Kit de ressources.
Lire l'articleBâtir des routages IP redondants
Le succès du commerce électronique repose largement sur le routage IP, qui achemine
les informations de l'e-business d'une entreprise à l'autre. Sans mécanisme de
routage IP redondant et à tolérance de panne, l'e-business d'une entreprise ne
peut pas survivre aux désastres (ouragans, inondations, panne d'alimentation,
interruptions de connexions Internet, défaillances hardware…), parce que l'entreprise
n'a pas d'autre méthode pour accéder à l'Internet
Pour atteindre et conserver un avantage concurrentiel en commerce électronique,
il vous faut intégrer un routage IP redondant dans votre infrastructure Internet.
Il existe divers moyens pour cela et l'un des plus courants est d'installer des
routeurs et des connexions Internet redondants. La présence de plusieurs routeurs
sur un même sous-réseau garantit la disponibilité d'une passerelle vers les serveurs
Internet en cas de défaillance de la passerelle par défaut.
De même plusieurs connexions à divers ISP (c'est-à -dire le multihoming) permettent
de disposer d'itinéraires de substitution vers l'Internet, en cas de panne d'une
liaison Internet ou d'un routeur.
Avant même l'expansion du commerce électronique, l'IETF (Internet Engineering
Task Force) avait mis au point plusieurs protocoles Internet pour le routage IP
redondant. Il s'agit du protocole FIRP (Fault Isolation and Recovery Protocol),
qui détecte les passerelles qui ne fonctionnent plus et supporte plusieurs passerelles
par défaut ; IRDP (Internet Router Discovery Protocol) ; VRRP (Virtual Router
Redundancy Protocol) et BGP (Border Gateway Protocol). FIRP, IRDP et VRRP servent
à créer la redondance des routeurs locaux et BGP la redondance des routeurs Internet.
Windows 2000 et Windows NT 4.0 supportent FIRP et IRDP, et de nombreux produits
d'exploitation et de routage Internet supportent IRDP, VRRP et BGP.
Pour inclure la fonctionnalité de routage IP redondant dans une infrastructure
de commerce électronique, il est indispensable de bien comprendre les bases du
fonctionnement de ces protocoles dans les configurations de routage IP redondantes.
Votre boutique d’e-commerce sécurisée avec SBS et Site Server
Microsoft Small Business Server (SBS) est un produit de choix non seulement pour les besoins de gestion des petites entreprises, mais aussi pour leurs sites Web de commerce électronique. Douze étapes pour construire votre boutique en ligne avec SBS et Microsoft Site Server 3.0 Commerce Edition. Microsoft a développé Site Server en le destinant principalement à des installations sur plate-forme BackOffice complète. Mais pour beaucoup de petites entreprises, utiliser seulement SBS et Site Server - plutôt que d'installer la solution BackOffice complète - est une idée séduisante. SBS et Site Server associés fournissent la majeure partie des fonctionnalités de BackOffice sans en atteindre le coût. Cependant, si SBS et Site Server sont faciles à installer et à configurer, le processus garantissant la sécurité de leur fonctionnement sur l'Internet n'est pas si simple.Cet article liste les étapes à respecter pour installer SBS, Site Server et les composants supplémentaires nécessaires pour sécuriser une solution de commerce électronique. Si vous suivez cette démarche, vous aurez une installation d'e-commerce SBS correctement sécurisée.
Lire l'articleLes performances d’Exchange 2000
Les caractéristiques de performances de Microsoft Exchange Server 5.5 sont bien
connues. En 1996, Exchange Server 4.0 a posé ses principes de base : atteindre
des performances optimales grâce à la distribution des fichiers et depuis, pas
grand-chose n'a changé. Microsoft a bien étendu la capacité de l'Information Store
(IS) jusqu'à la limite théorique de 16 To, mais le serveur de messagerie conserve
ses caractéristiques essentielles.
Dans Exchange Server, les points névralgiques, c'est-à -dire les fichiers générant
la plus lourde charge d'E/S, sont les bases de données de l'IS et du Directory
Store, leurs journaux de transactions, la copie sur disques de Windows NT et le
répertoire de travail MTA (Message Transfer Agent).
Exchange 2000 Server est d'un tout autre acabit. Le nouveau serveur de messagerie
bénéficie des améliorations suivantes :
* L'architecture de l'IS a nettement évolué, passant du simple partitionnement
de bases de données privées et publiques à un point où elle permet, théoriquement,
d'exécuter jusqu'à 90 bases de données sur un seul serveur.
* Microsoft IIS (Internet Information Server) traite tous les accès de protocoles
pour SMTP, IMAP4 (Internet Message Access Protocol), HTTP, NNTP (Network News
Transfer Protocol) et POP3, et joue donc un rôle plus important pour Exchange
2000 que pour les précédentes versions d'Exchange Server.
* Une nouvelle base de données déroulante peut contenir le contenu Internet natif.
* Active Directory (AD) de Windows 2000 remplace le Directory Store.
* Un nouveau moteur de routage et de mise en file d'attente, basé sur SMTP, remplace
l'ancien MTA basé sur X.400.
Ces améliorations font partie d'une solution customisable que les solutions tierces
étendront vraisemblablement pour doter Exchange 2000 de fonctions telles que antivirus,
fax, workflow, gestion de documents et autres fonctions qui ne font pas partie
du serveur de base.
Exchange 2000 apporte d'importants changements architecturaux affectant considérablement
les performances. Les concepteurs de systèmes vont devoir à présent se poser une
question cruciale : comment optimiser au maximum ces nouvelles fonctions en termes
de configurations systèmes et matériels.
Pour y répondre, commençons par examiner le partitionnement de l'IS d'Exchange
2000.Exchange 2000 apporte d'importants changements architecturaux affectant considérablement
les performances
Thorn Europhane : ERP et Terminal Server au centre du nouveau SI
Pour bâtir son nouveau système d'information multisite, le groupe Thorn a opté pour la mise en place de l'ERP Baan. Les problèmes de communications de données entre les filiales ont pu être résolus grâce à l'architecture Terminal Server/Metaframe.La décision de mettre en oeuvre une informatique de gestion commune au niveau du groupe Thorn est née il y a trois ans, et répondait à une double contrainte. D'une part, les difficultés de consolidations de chiffres, et d'autres parts les problèmes de communication entre les différentes filiales, au sein d'environnements informatiques très hétérogènes. " Il devenait primordial de mettre en oeuvre un modèle de gestion plus cohérent au niveau du groupe, de rationaliser les systèmes d'informations des différentes filiales, et faire en sorte qu'ils passent le cap de l'an 2000. " explique Gérard L'hote, directeur administratif et financier chez Thorn Europhane. C'est le progiciel de gestion intégré Baan qui sera retenu, après la phase de Business Re Engineering, pour supporter une rénovation complète du système d'information de l'entreprise : de la gestion comptable, financière, commerciale, à la gestion de production. " Nous avons fait le choix de l'ERP Baan car c'était alors, le seul produit du marché susceptible de nous aider à bâtir un système d'information multisite transfrontières, en nous apportant une réponse métier adaptée à notre problématique de GPAO. " souligne Gérard L'hote. Quant à l'intégrateur Origin, il sera chargé de la mise en oeuvre complète de l'ERP. " Origin est aujourd'hui le premier intégrateur Baan sur le marché, mais c'est aussi la seule société de services capable d'apporter une réponse internationale à notre problématique d'implémentation. " précise Gérard L'hote.
A partir du mois de juin 1998, un modèle commun d'implémentation a été choisi pour l'ensemble des pays concernés (Angleterre, Suède, France et Allemagne). A charge de ces filiales, d'adapter ensuite la solution à leurs besoins propres de gestion, via des personnalisations et des développements spécifiques.
" L'architecture AS400 nous posait de gros problèmes de communications entre sites à cause du protocole SNA "
Basée en Angleterre, l'usine de production de Spennymoor sera la première à finaliser la mise en oeuvre de la gestion de production. Elle sera suivie par son homologue allemande, qui optera pour une démarche Big Bang du fait de sa configuration multisite. La France vient quant à elle de terminer l'implémentation de la solution par la mise en oeuvre du dernier module de gestion commerciale.
Lire l'articleAdministrer les variables d’environnement de Windows NT
Dans les groupes de discussion, reviennent fréquemment des questions sur les variables d'environnement. Les administrateurs Windows NT ont souvent du mal à accéder aux informations stockées par ces variables. Pour définir et lire des variables d'environnement sur les machines NT il existe plusieurs techniques. Cet article explique comment un administrateur NT expérimenté peut gérer des variables système et utilisateur avec les utilitaires du Kit de ressources de Windows NT Server 4.0, des fichiers batch et des applications VBScript (Visual Basic).
Lire l'articleXML et les technologies de scripting de Microsoft
Il y a un peu plus d'un an, interrogé sur l'impact qu'allait avoir XML sur les technologies de script de Windows, j'avais répondu que XML allait certainement jouer un rôle crucial pour le développement des applications Web, mais qu'il n'affecterait pas l'univers des scripts d'administration de systèmes. Or Windows Scripting Host 2.0 m'a donné tort. Egalement baptisé Windows Script 5.1, Windows Scripting Host 2.0 (WSH) comporte de nouvelles fonctions puissantes dépendant d'un nouveau type de fichier et d'un nouveau format. Vous voulez savoir quel type de fichier ? Alors, suivez-moi. WSH 2.0 comprend de nouvelles fonctions telles que, par exemple, le support des fichiers inclus, plusieurs moteurs de script, de nouveaux outils. Parmi ces nouvelles fonctions, plusieurs dépendent du nouveau format de fichier Windows Script (WS). Les fichiers WS de WSH 2.0 ne sont pas de simples fichiers ASCII contenant du code VBScript, Jscript ou d'autres langages de script compatibles ActiveX. Ce sont des applications XML (Extensible Markup Language) structurées par Microsoft selon le schéma WS XML. Le nouveau type de fichier et le nouveau format créent un cadre d'écriture de script amélioré et puissant. Examinons le schéma WS XML et les nouvelles fonctions qu'il apporte.
Lire l'articleNaviguer dans la résolution de noms 2ème Partie
Même les administrateurs Windows NT les plus chevronnés ne maîtrisent pas parfaitement le processus de résolution des noms des réseaux Windows. On ne saurait le leur reprocher. Qui pourrait s'y retrouver dans ce monde truffé de standards de serveurs de noms, d'ordres de résolution de clients modifiables, de serveurs WINS auto-destructeurs, de service packs et de correctifs modifiant la résolution des noms et d'une avalanche d'articles Microsoft contradictoires. Le seul espoir si l'on veut maîtriser la résolution de noms Windows est de comprendre la méthodologie sous-jacente pour pouvoir régler les problèmes lorsqu'ils surviennent sur un réseau. (Dans l'article " Naviguer dans la résolution de noms, Partie 1 " de septembre 2000, nous avons vu les bases de la résolution des noms, décrit les causes cachées et les malentendus communs liés à la résolution des noms et proposé un certain nombre de solutions pour des situations spécifiques). J'ai trouvé quelques solutions pour atténuer les malheurs de la résolution des noms.
Lire l'articleAméliorez les performances base de données avec l’assistant d’optimisation des index
par Itzik Ben-Gan
En utilisant des index appropriés, les requêtes deviennent plus performantes qu'elles
ne l'ont jamais été
Avez-vous créé des index optimisés pour votre base de données ? Avez-vous pensé
à utiliser les meilleurs index de tables clusterisés ? Avez-vous déterminé quels
index peuvent améliorer les performances des requêtes ? Le choix du meilleur index
clusterisé pour une table base de données principale constitue l'un des problèmes
les plus ardus que rencontrent les administrateurs de bases de données.
Toutefois, le choix des meilleurs index non clusterisés n'est pas non plus très
aisé. En effet, cela impose de prendre en considération la distribution statistique
des données, les différentes techniques utilisées par l'optimiseur de requêtes
pour concevoir un plan d'exécution efficace, ainsi que le nombre de sélections
et de modifications effectuées par les utilisateurs sur la base de données pour
ne pas créer d'index superflus.
Les développeurs SQL Server 7.0 disposent déjà de SQL Profiler, un outil
inestimable permettant de suivre les requêtes
Ne serait-il pas idéal de disposer d'un outil capable d'analyser les requêtes
effectuées sur sa base de données et de recommander les index à créer ? Et bien
coup de chance. Les développeurs SQL Server 7.0 disposent déjà de SQL Profiler,
un outil inestimable permettant de suivre les requêtes effectuées sur une base
de données. On peut enregistrer le résultat de Profiler dans un fichier, une table
ou un script SQL. On peut ensuite analyser ce résultat à l'aide d'un autre outil
de SQL Server 7.0, l'assistant d'optimisation d'index ou Index Tuning Wizard (ITW),
lequel recommande les index à concevoir.
Pour s'assurer que l'ITW donne des indications efficaces, il faut assurer un suivi
des requêtes pendant une période d'activité type sur le système (et non une période
d'activité exceptionnellement intense ou faible ni une période où se produisent
des activités exceptionnelles). Il faut également décider pendant combien de temps
Profiler doit suivre les requêtes. On peut par exemple avoir une représentation
caractéristique de l'activité du système, en ne faisant une trace avec Profiler
que durant quelques heures. Ou alors, il faudra effectuer un suivi sur quelques
jours ou plus pour capturer les variations d'activité en cours de journée ou sur
plusieurs jours.
SSL et la cryptographie
Historiquement, SSL est un protocole mis au point par Netscape pour la sécurisation des communications sur le Web. Tous les acteurs du marché ont accepté ce protocole et le supportent, en attendant l'arrivée d'un standard international. Ce standard appelé TLS (Transport Layer Security), basé sur SSL, est mis au point par le l'IETF (Internet Engineering Task Force) et a été publié il y a peu de temps (TLS 1.0). Tous les éditeurs significatifs supportent ou ont annoncé leur intention de supporter TLS 1.0.Afin de comprendre ce qu'est SSL, il est indispensable de maîtriser les concepts de cryptographie qui en constituent les fondations.
Lire l'articleLes plus consultés sur iTPro.fr
- Défis et bénéfices d’infuser l’IA dans l’analytique et la BI
- Mieux protéger l’entreprise à l’ère du travail hybride et du Cloud
- Les entreprises concentrent les investissements sur l’innovation, l’efficacité et la résilience
- L’IA profite au marché du mobile !
- La législation européenne sur l’IA entre en vigueur. Comment s’y préparer au mieux ?