par Edward Whalen, Geoff Langos et Alexander Stamenkovich - Mis en ligne le 26/11/2003
Reconception architecturale + réplication transactionnelle = performance écrasante
Les DBA savent que le premier pas,
pour déterminer la viabilité et la capacité
à long terme d'un système, consiste à effectuer
des mesures de supervision des
performancesLes DBA savent que le premier pas,
pour déterminer la viabilité et la capacité
à long terme d'un système, consiste à effectuer
des mesures de supervision des
performances. C'est dans cet esprit que,
voilà plusieurs années, nous avons conçu un programme chargé de suivre les variations
des performances dans le système
de traitement d'un centre d'appel
sous Windows NT et SQL Server 7.0. Au
début, nous avons constaté que le
Performance Monitor nous donnait bien un programme chargé de suivre les variations
des performances dans le système
de traitement d'un centre d'appel
sous Windows NT et SQL Server 7.0. Au
début, nous avons constaté que le
Performance Monitor nous donnait bien long terme en prenant des instantanés
chaque demi-heure de certaines mesures
comme l'utilisation de la CPU et
des I/O, le nombre d'utilisateurs et de
processus, les traitements de commandes,
et les transactions. Nous avons
rangé ces mesures dans une base de
données SQL Server. L'année où nous
avons commencé notre programme de
supervision, nous n'avons recueilli les
données que pour quelques mois consécutifs.
Et constaté ainsi que les données
glanées pendant une période aussi
courte ne produisaient que des informations
à court terme: trop peu de points
de données pour dessiner une tendance.
En revanche, l'année suivante, quand nous avons supervisé des tranches de
temps plus longues, les données recueillies
ont révélé des tendances significatives.
En une année, nous avons observé
une hausse inquiétante de
l'utilisation de la CPU que nous avons attribuée
à une augmentation des fonctions
applicatives personnalisées dans le
centre et à l'ajout de nombreux utilisateurs
du système.
Diviser et conquérir
Pour endiguer l’augmentation de l’utilisation
de la CPU, nous avons mis à niveau
régulièrement le matériel jusqu’à ce
que SQL Server 7.0 fonctionne sur la plus
grande et la plus rapide CPU possible. Ensuite, nous nous sommes tournés
vers un programme de réglage de la base
de données, du matériel et des instructions
SQL. Bien que nous ayons pratiqué
le réglage des performances de manière
continue, les sollicitations de la CPU ont
fini par dépasser nos efforts d’optimisation.
En juillet 2000, il était clair que le
système de base de données actuel atteindrait
probablement son maximum
de performances vers la fin de l’année. La
figure 1 montre l’utilisation de la CPU de
juillet à décembre 2000. La réécriture des
applications aurait demandé bien plus
qu’une année et il n’était pas sûr que les
applications modifiées résoudraient le
problème. Des mesures plus drastiques
s’imposaient.
Téléchargez cette ressource
Travail à distance – Guide IT et Métiers
Le travail à distance met à l'épreuve la maturité numérique des entreprises en termes de Cybersécurité, d'espace de travail, de bien-être des collaborateurs, de communication et gestion de projet à distance. Découvrez, dans ce nouveau Guide Kyocera, quels leviers activer prioritairement pour mettre en place des solutions de travail à domicile efficaces, pérennes et sécurisées.
Les articles les plus consultés
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- La blockchain en pratique
- L’utilisation des données pour survivre !
- Les projets d’intégration augmentent la charge de travail des services IT
- ActiveViam fait travailler les data scientists et les décideurs métiers ensemble
Les plus consultés sur iTPro.fr
- Top 6 de la sécurité des secrets
- Déploiement Data Zone de votre IA !
- Le nouvel espace-temps de la transformation digitale : redéfinition des rôles dans les projets IT
- Facturation électronique : les craintes des entreprises liées à la réforme
- Cyber-assurances, priorité ou faux remède pour les TPE et PME ?