Réseaux

L’informatique dans les nuages : L’orage gronde

Le cloud computing est sur toutes les lèvres. Les géants de l’informatique ont la tête dans le nuage avec cette nouvelle technologie. Mais l’explosion des besoins en électricité des grands centres de calcul commence à faire des vagues.

Centre de données ou DatacenterLe Cloud Computing est une technologie intéressante en bien des points. Elle réussit à centraliser des besoins et donc à optimiser les calculs tout en jouant la carte de la mobilité absolue, puisque applications et données sont désormais accessibles partout, pour tout le monde et à toute heure. Tout ceci réclame de gros besoins assurés dans d’énormes «data centers» construits par les géants du net.  Cependant, la quantité de données que ces fournisseurs de services doivent absorber et traiter suit une croissance exponentielle et l’énergie nécessaire suit malheureusement la même tendance. Il est aujourd’hui estimé que l’empreinte carbone des centres de données équivaut à celle de l’aviation dans le monde entier. Pour certains, il y a urgence pour réduire cette consommation. Aux Etats-Unis, l’an dernier, elles atteignaient 1,5% du total de l’énergie consommée dans le pays. Cette proportion devient encore plus colossale puisque le  coût est chiffré à 4,5 milliards de dollars. Les industriels ne s’y trompent pas aux regards des économies réalisables en optimisant ces systèmes.

Selon Babak Falsafi, professeur au laboratoire d’architecture de systèmes parallèles (PARSA) de l’EPFL «Nous constatons aujourd’hui que le progrès technologique en matière de matériel informatique se heurte à deux limites…Nous ne pouvons plus réduire le voltage utilisé dans les puces électroniques, ce qui permettait jusqu’ici d’éviter que leur consommation augmente au même rythme que la puissance de calcul des processeurs. En outre, la quantité de données augmente beaucoup plus vite que la technologie pour les gérer.»

L’une des voix de recherche est de transformer la courbe de l’évolution de la consommation des centres de données d’une exponentielle à une droite linéaire. La recherche vise une augmentation progressive de l’efficience des processeurs et des mémoires, d’un facteur 100 d’ici 10 ans.

De nombreuses pistes sont étudiées dont la gestion du refroidissement des processeurs avec des systèmes plus intelligents capables de s’adapter en temps réel à la sollicitation des puces ou encore à revoir la disposition traditionnelle des composants d’un ordinateur. La mémoire pourrait se voir déplacer au-dessus du processeur. Cette conception «verticale» permettrait d’augmenter et d’optimiser la circulation de l’information entre eux.

Réunissant 12 laboratoires, un consortium nommé Ecocloud a été présenté à l’EPFL (École Polytechnique Fédérale de Lausanne) au début du mois de juin 2011. Il ambitionne de répondre à l’explosion des données et applications hébergées dans le cloud tout en travaillant aux besoins vitaux d’améliorer l’efficacité énergétique des centres de données. Il compte plusieurs grands partenaires industriels tels que HP, IBM, Microsoft, Nokia, Oracle, Swisscom ou encore Intel. Sono budget annuel s’élève à 1,4 millions de francs

Jérôme Gianoli

Aime l'innovation, le hardware, la High Tech et le développement durable. Soucieux du respect de la vie privée.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page