La consommation d’un serveur ne se résume pas uniquement à l’addition de celles de ses différents composants puisqu’il faut assurer un refroidissement minimum afin de garantir un bon fonctionnement. Dans une optique d’améliorer ce dernier, c’est-à-dire de mieux gérer les besoins et ainsi optimiser les dépenses énergétiques, Intel a présenté une nouvelle technologie d’analyse et de gestion du refroidissement basée sur de nouvelles sondes thermiques et une application dédiée.
Prévue pour être commercialisée en 2012, cette technologie a pour finalité de permettre un suivi en temps réel des besoins en refroidissement d’un serveur. Un logiciel de modélisation est prévu afin d’analyser les données récoltées afin d’ajuster le système de refroidissement en conséquence.
Placés à l’intérieur du serveur, ces nouveaux capteurs recueillent des données concernant les flux d’air traversant la configuration. L’une des bonnes nouvelles est qu’aucune modification physique du matériel n’est nécessaire.
Les données recueillies sont regroupées et évaluées à l’aide d’une application très spécifique (Computational Fluid Dynamics) afin d’identifier les points chauds et froids . Les besoins, en jouant sur la vitesse des ventilateurs peuvent ensuite être ajustés en fonction des résultats. Suivant l’état du serveur (repos, charge), l’adaptation de son refroidissement assure une gestion plus fine de ses besoins énergétiques.
Certains tests ont permis d’abaisser la consommation d’énergie liée au refroidissement de 34% sans aucun impact sur le matériel.
Source : datacenterdynamics.com