Les Datacenters face au défi de la haute densité.

Densifier les serveurs réduit l’espace d’hébergement et simplifie le câblage, à condition de savoir dissiper la chaleur que ces nouveaux designs génèrent.

Densifier les serveurs réduit l’espace d’hébergement et simplifie le câblage, à condition de savoir dissiper la chaleur que ces nouveaux designs génèrent. La haute densité, un défi technique et économique que l’hébergeur DATA4 a réussi à relever au profit de ses clients

Les datacenters doivent en ce moment résoudre un épineux paradoxe lié à leur consommation d’énergie : comment réduire le coût de l’informatique en la densifiant, alors que cette densité augmente les coûts de dissipation d’énergie ? L’hébergeur DATA4, au premier rang de cette problématique, est d’autant plus sollicité par ses clients sur cette question depuis que les fabricants de serveurs ont annoncé doubler cette année le nombre de ports de communication dans un espace donné.

« Regrouper deux rangées de racks serveurs en une seule, représente désormais l’opportunité économique de diviser par deux le nombre de câbles et de commutateurs réseau à acheter, à installer, à maintenir. Mais dans de telles conditions, un rack va consommer entre 12 et 17 kilowatts contre 7 kilowatts auparavant. L’enjeu réside alors dans les leviers à adopter pour optimiser la consommation en énergie dans les salles informatiques », résume Mohamed El Barkani, le directeur avant-vente de DATA4.

Un enjeu de design pour un PUE de 1,22 par salle informatique.

Pour concrétiser la haute densité sur ses sites, l’hébergeur a dû réinventer totalement la manière de concevoir ses salles informatiques. Mohamed El Barkani précise à ce sujet que le problème de la haute densité préoccupe plus particulièrement les hyperscalers, les acteurs de la finance, voire les éditeurs de jeux vidéo en ligne. C’est-à-dire des entreprises qui ont besoin de réserver chez les hébergeurs des salles informatiques entières et qui sont sensibles aux questions énergétiques.

« Les entreprises qui disposent de quelques racks bénéficient pour la plupart d’une offre de service packagée incluant la consommation électrique. N’étant pas consciente de cette consommation, elles sont donc peu sensibles aux questions énergétiques. En revanche, celles qui occupent des salles blanches complètes et paient leur électricité à l’usage cherchent à optimiser leur facture énergétique et donc à réduire leur PUE » ajoute-t-il.

L’unité de mesure qui attise ici toutes les passions est le PUE (Power Usage Effectiveness) ou, dit autrement, le rapport entre la puissance électrique globale dépensée dans une salle informatique et celle consommée uniquement par les équipements informatiques. Un datacenter affiche généralement un PUE de 1,8. Sur son ancienne génération de salles informatiques, DATA4 parvenait à atteindre 1,5. Ses nouveaux designs lui permettent de descendre à présent jusqu’au nombre record de 1,22.

« Ce qui pèse sur le PUE, c’est la climatisation : une rangée de dix racks à 10 kilowatts chacun produit 100 kilowatts de chaleur et il faut en dépenser parfois presque autant si l’on veut produire assez de froid pour éliminer complètement cette chaleur. Notre enjeu de design a donc été de trouver des moyens de réduire cette chaleur sans produire de froid », dit Mohamed El Barkani.

Repenser la largeur des allées et la fourniture d’électricité.

Le design de haute densité mis au point par DATA4 repose sur cinq leviers. Le premier, le plus simple, a été d’élargir de 50% les allées entre les racks de serveurs. « Nous sommes passés de 1,20m à 1,80m, car, in fine, ce qui compte est la consommation électrique au mètre carré. Cela nous a permis de doubler la puissance de calcul sans pour autant doubler la consommation d’énergie ni diviser par deux le nombre de racks. Nous atteignons seulement 2,1 à 2,5 kilowatts par mètre-carré pour des racks denses de 12 à 17 kilowatts, contre 1,5 kilowatt par mètre-carré avec des racks non denses à 7 kilowatts. », explique le directeur avant-vente.

Le second levier consiste à optimiser les unités de puissance électrique d’une salle informatique. « Pour des questions de redondance, l’usage voulait que nous provisionnions toujours deux fois plus d’électricité que nécessaire (Architecture en 2N). Par exemple, quand une salle informatique avait besoin de 4 mégawatts, nous installions deux sources capables de fournir chacune 4 mégawatts, que l’on utilisait à 50% de leur capacité. Or les unités de puissance ne fonctionnent à plein rendement que lorsqu’elles tournent aux alentours de 60% à 70% de leur capacité.

Pour contourner cet écueil, DATA4 continue à connecter chaque rack à deux sources électriques sur chaine ondulée, mais celles-ci sont désormais au nombre de trois (Architecture en 3N/2). Elles ne proposent plus chacune que 2 mégawatts et tournent alors à 66% de leur capacité. Dès lors nous les utilisons à leur rendement maximum, nous minimisons l’approvisionnement maximum de puissance et nous assurons toujours la reprise des besoins électriques à 100% en cas de défaillance d’une des sources électriques.

Confiner les allées pour se contenter d’expulser l’air chaud.

Le troisième levier est le confinement des allées : soit des allées chaudes quand elles sont bordées des faces arrière des racks, où les serveurs expulsent leur chaleur, soit des allées froides qui donnent accès aux faces avant des racks, par où entre l’air frais. « Notre préférence va au confinement des allées chaudes, car, ainsi, il nous suffit de maintenir une température ambiante de 22°C Celsius dans les allées froides et d’expulser à l’extérieur l’air des allées chaudes, sans même chercher à le refroidir. »

Mohamed El Barkani précise toutefois que le confinement des allées n’est efficace que si l’air chaud et l’air froid ne se mélangent pas. « Il ne faut pas laisser de trou dans les rangées de racks. C’est pourquoi nous recommandons à nos clients d’installer tous les racks qui bordent une allée dès le premier jour, quitte à multiplier les racks vides et à les obstruer avec des platines. »

Combiner haute densité et écologie en ne produisant du froid que 10 à 17% de l’année.

Le quatrième levier est la production du froid elle-même. « En récupérant l’air ambiant qui se trouve à l’extérieur du bâtiment, nous parvenons à n’utiliser le groupe de production de froid que 10 à 17% de l’année » se félicite Mohamed El Barkani ! En l’occurrence, DATA4 joue sur deux paramètres : la température de fonctionnement des serveurs et le système de ventilation.

D’une part, les fabricants valident à présent qu’une température de 18 à 27 degrés en façade de leurs serveurs est optimale pour leur fonctionnement.

« Il s’agit de la température que nous avons la plupart du temps sous nos latitudes. Et, en hiver, lorsque la température extérieure est trop basse, il nous suffit de mélanger l’air froid avec un peu d’air chaud produit par les serveurs. En somme, nous n’utilisons la plupart du temps que des ventilateurs. »

D‘autre part, DATA4 a développé, breveté et mis en œuvre un système de ventilation qui lui permet d’optimiser la récupération d’air à l’extérieur tout en expulsant l’air chaud des allées confinées. Ce système de ventilation, dont DATA4 a le brevet, fonctionne depuis le plafond.

« Cela nous évite d’utiliser un faux plancher pour diffuser l’air froid. C’est-à-dire que nous supportons des racks plus lourds que d’ordinaire. Or, il s’agit d’un point particulièrement important quand on parle de racks hautement denses dans lesquels il y a deux fois plus d’informatique que d’habitude. »

Optimiser l’agencement des serveurs et du réseau dans les racks.

Le dernier levier, enfin, est l’optimisation de l’agencement des serveurs dans les racks. « Le plus souvent, une entreprise nous laisse installer nous-mêmes ses racks selon son cahier des charges. Elle est bien entendu libre d’installer elle-même ses racks, mais nous prévoyons dans nos procédures l’obligation de nous consulter pour ce faire. En effet, les DSI qui chapeautent ces projets estiment difficilement où se formeront les points chauds, tandis que nous faisons au préalable des modélisations thermodynamiques ( CFD) sur un logiciel spécialisé, qui est même capable de simuler les incidents de climatisation », dit Mohamed El Barkani.

Ainsi alors que la densité des infrastructures hébergées ne fait que s’accroître du fait d’équipements moins volumineux avec une connectivité plus étendue, d’architectures hyperconvergées et de besoins croissants en puissance de calcul, il fallait apporter une réponse pérenne aux problématiques de dissipation d’énergie.

Haute densité et efficacité énergétique sont intimement liées, et il est aujourd’hui possible de combiner les deux tant au niveau des infrastructures, que des matériaux ou encore des matériels.

Le succès de DATA4 tient certainement à l’optimisation de plusieurs paramètres, en coopération avec chaque client et dans le respect le plus strict des impératifs de fiabilité.