> Tech > l’Histoire de l’évolution des processeurs

l’Histoire de l’évolution des processeurs

Tech - Par Renaud ROSSET - Publié le 07 mars 2016
email

L’an 2000 a marqué un tournant dans l’évolution des puissances de calcul.

l’Histoire de l’évolution des processeurs

Pour la première fois, la barrière du 1 GHz était franchie à la fois par Intel et AMD

Le processeur Pentium 4 se cadençait ainsi à 1,5 GHz et initiait une marche inéluctable : l’ère du x86 au cœur des Data Centers.

Quinze en plus tard, nos serveurs se dopent aux multi-cœurs. L’Intel Xeon E7-v4 dispose de 24 cœurs. AMD prépare une version 32 cœurs de ses futurs Opteron à architecture « Zen » attendus en 2016. Les calculs intensifs sont assurés par des GPU ou des MIC (Many Integrated Core) aux performances ébouriffantes. Le nouveau Xeon Phi « Knights Landing » embarque

72 cœurs et affiche 8 teraflops en simple précision, 3 teraflops en calculs double précision. Autrement dit, toute la puissance du Super-ordinateur IBM ASCI White qui détenait en 2000 le record de performances

(7,1 Teraflops). Un monstre qui pesait 106 tonnes et consommait 3 MegaWatt (plus 3 autres MW de climatisation). A comparer aux quelques grammes et 200W du nouveau Xeon Phi.

Le futur proche nous annonce des processeurs dotés de centaines de cœurs. Mais au-delà se profile d’autres formes d’ordinateurs. IBM, Microsoft Research et Google croient dans l’ordinateur quantique. HP croit aux processeurs à bus photonique. Une chose est sûre, avec les GPU et les MIC, l’évolution de la puissance n’est plus linéaire comme elle peut l’être avec les CPU, mais exponentielle. Il y a bien longtemps que la puissance des HPC ne se mesure plus en TeraFlops mais en PetaFlops. En 15 ans, la performance du plus puissant des supers-ordinateurs est passée de 8 TFlops à 54 PFlops (54000 TFlops) ! Dans 15 ans, le plus puissant d’entre eux sera probablement 10.000 fois plus performant que le Tianhe-2 (le monstre du National University of Defense Technology en Chine).

Evolution des Data Centers

Les années folles de la bulle Internet (1997-2000) ont beaucoup contribué à changer le visage des salles informatiques et lancer l’ère des Data Centers connectés. Dès 2002, les problématiques de consommation énergétique et d’efficience vont se faire ressentir. A l’époque, 5 millions de nouveaux serveurs viennent s’ajouter chaque année aux infrastructures. Aux USA, ces centres de données consommaient déjà 1,5% de la puissance disponible. En 2005, Google commence à imaginer ses propres conteneurs. Une idée qui sera petit à petit adoptée par les plus gros acteurs et mènera aux concepts des Data Centers modulaires.

L’espace physique n’étant pas extensible à l’infini, on cherche coûte que coûte à densifier les serveurs. Pour densifier les cartes mères, les SOCs ont fait leur apparition sur les serveurs. Ils permettent la concrétisation de nouveaux concepts plus modulaires comme le HP Moonshot.

La modularité du Data Center descend d’un échelon pour atteindre ses composantes. En 2015, les systèmes convergés et hyper-convergés ont ainsi le vent en poupe.

Et si consolidation et rationalisation deviennent les maîtres mots des DSI, c’est parce qu’une révolution logicielle a, en 2001, totalement changer la donne : cette année-là est lancé VMWare ESX et les Data Centers entrent dans l’ère de la virtualisation. Les concepts de pools de ressources vont vite s’étendre au-delà des serveurs : Stockage et réseau les adoptent eux-aussi. De cette virtualisation vont rapidement naître de nouveaux besoins d’automatisation, d’orchestration, et avec eux des besoins de casser les silos pour la mettre en œuvre. Nous en sommes aujourd’hui qu’aux premières étapes de la « Software Led Infrastructure » (SLI). Petit à petit, les technologies de « Software Defined Storage » et « Software Defined Network » se mettent en place. Elles se concrétisent plus aisément dans les systèmes hyper-convergées mais sont destinées à se généraliser. Une fondation émerge, venant contrarier les ambitions de VMWare vSphere et Microsoft System Center : OpenStack a tous les atouts en main pour devenir la fondation des SLI de demain.

Téléchargez cette ressource

Livre blanc Sécurité et Stockage des documents

Livre blanc Sécurité et Stockage des documents

Découvrez dans ce livre blanc Kyocera les outils logiciels qui permettent une approche holistique et efficace de la collecte, du stockage, de la gestion et de la sécurisation des documents en entreprise.

Tech - Par Renaud ROSSET - Publié le 07 mars 2016