L'impact potentiel des projets de centres de données sous-marins sur l'environnement
NetworkOcean, soutenu par le programme d'accélération Y Combinator prévoit d'immerger dans la baie de San Francisco un centre de données de 500 kW contenu dans une capsule conçue par l'entreprise, dans le cadre d'un test de sa technologie. L'entreprise affirme qu'elle peut éliminer la consommation d'eau et réduire la consommation d'énergie de 30 %. Elle affirme disposer de 2 048 GPU Nvidia H100 à réserver. Sam Mendel, cofondateur de l'entreprise, déclare : « il existe une opportunité vitale de construire une infrastructure informatique plus efficace sur laquelle nous nous appuierons pour les décennies à venir ».
Les fondateurs de NetworkOcean ont déclaré qu'un emplacement dans la baie offrirait des vitesses de traitement rapides pour l'économie de l'IA en plein essor dans la région. Toutefois, ils n'ont pas informé les régulateurs de leurs ambitions, car ils pensaient qu’une autorisation n'était pas nécessaire pour les premiers essais de leur technologie. Les autorités auraient eu vent du projet à la suite d'une interview accordée à Wired par les cofondateurs de NetworkOcean.
À la suite des investigations de la publication, deux agences (la Bay Conservation and Development Commission (BCDC) et le San Francisco Regional Water Quality Control Board) auraient écrit à la startup pour l'avertir qu'en effectuant des tests sans permis, elle risquait de se voir infliger de lourdes amendes. En outre, les scientifiques affirment que la moindre chaleur ou perturbation provenant de leur submersible pourrait déclencher la prolifération d'algues toxiques.
Ils expliquent également que le projet pourrait nuire à la faune et à la flore. « Les choses sont surréglementées parce que les gens ne font souvent pas ce qu'il faut. Vous donnez un centimètre, ils prennent un kilomètre. Nous devons être prudents », explique Thomas Mumley, ancien directeur général adjoint de l'Office de l'eau de la baie. Toutefois, Mendel affirme : « notre site d'essai potentiel nous a dit que notre installation est sans danger pour l'environnement ».
Les cofondateurs de NetworkOcean ont travaillé ensemble à la construction de générateurs magnétohydrodynamiques (MHD) sous-marins, un type de générateur d'énergie qui ne contient pas de turbine mobile et qui peut transformer l'énergie thermique ou cinétique en électricité. On ne sait pas si le centre de données sous-marin de NetworkOcean utilise une MHD, mais sur sa page Y Combinator, l'entreprise dit que Kim a breveté un « dispositif d'énergie renouvelable ».
Le concept de centre de données sous-marin séduit de nombreux pays et entreprises
La perspective d'immerger des centres de données en mer séduit du monde depuis quelques années. Dans un contexte de pénurie d'électricité sur les marchés du monde entier, l'utilisation des courants marins pour refroidir naturellement les serveurs pourrait permettre aux opérateurs de réaliser des économies et d'alléger la pression sur les réseaux électriques. Selon les entreprises qui plébiscitent cette idée, le fait de placer les serveurs dans un environnement pressurisé, sans oxygène ni particules de poussière, devrait également les aider à fonctionner plus efficacement et aussi à tomber moins souvent en panne.
La société chinoise HiCloud affirme que des modules de centres de données sous-marins fonctionnent commercialement, après avoir installé ses serveurs à 35 mètres de profondeur sur le fond marin au large de la côte du comté de Lingshui Li, dans la province d’Hainan, l'année dernière. Selon ses dirigeants, HiCloud prévoit d'avoir 100 modules dans la grappe de centres de données, mais on ne sait pas exactement combien sont actuellement en fonctionnement.
HiCloud affirme également qu'une fois le projet achevé, il permettra d'économiser 122 millions de kWh d'énergie par an (soit environ 14 MW), ainsi que 68 000 mètres carrés de terrain et 105 000 tonnes d'eau douce par an. La startup texane Subsea Cloud, spécialisée dans les centres de données, affirme qu'elle exploite déjà 13 500 serveurs dans des sites sous-marins en Asie, qui seront loués à des entreprises spécialisées dans l'IA et dans l'industrie du jeu.
Une fois les autorisations nécessaires obtenues, Subsea Cloud espère être opérationnel en 2025 et affirme que ses serveurs n'ont pas d'impact sur la température de l'océan. Les deux startups pourraient vouloir s'inspirer du destin du projet Natick de Microsoft, qui a vu un centre de données sous-marin déployé au large des côtes écossaises en 2018. Le système de test contenait 855 serveurs, qui ont été laissés sans surveillance pendant 25 mois et huit jours.
Microsoft a laissé 135 serveurs dans un centre de données normal, aux côtés de matériel exécutant le cloud Azure de Microsoft, afin de comparer et de contraster. Et seuls six des 855 serveurs immergés se sont cassés, contre huit des 135 serveurs sur la terre ferme, Microsoft soulignant que les températures extérieures stables étaient un facteur de réussite. Cette expérience a été considérée comme un succès, mais Microsoft a néanmoins mis fin au projet.
Centre de données sous-marin : une approche trop coûteuse avec plusieurs risques ?
Lancé en 2016, le projet Natick de Microsoft visait à déterminer si les centres de données pouvaient être installés et exploités sous l'eau. En septembre 2020, Microsoft a annoncé que le test de son centre de données sous-marin a été un succès, il utilise l'énergie de manière durable et peut réduire la latence en rapprochant les services cloud des clients. Mais malgré le succès annoncé par Microsoft, la firme de Redmond a mis fin au projet en juin dernier. Les rapports sur le sujet indiquent que l'approche de centres de données immergés s'avère plutôt coûteuse. Microsoft n'a toutefois pas commenté ces rapports tiers.
Il faut rappeler que les centres de données contiennent de nombreux serveurs qui génèrent beaucoup de chaleur. Lorsque la chaleur est trop forte, les serveurs plantent. Raison pour laquelle ils sont placés dans des zones où l'air conditionné fonctionne en permanence. C’est en cela que le projet Natick de Microsoft apparaissait comme une solution conçue à la fois pour être écologique et économique dans la mesure où il n'y aurait plus à payer cette lourde facture.
Phases du projet, avantages, inconvénients et raisons de l’arrêt de l’expérience
- en 2015, Microsoft a déployé un prototype de centre de données, de la taille d'un conteneur d'expédition, au fond de l'océan au large de la côte californienne (phase 1) ;
- cette phase initiale a prouvé que le concept pouvait fonctionner. Les températures constamment fraîches de l'océan ont permis un refroidissement naturel et efficace des serveurs, réduisant potentiellement la consommation d'énergie ;
- encouragée par les résultats, Microsoft a lancé la phase 2 en 2018. Il s'agissait d'une unité de centre de données préfabriquée plus grande, déployée près des îles Orcades en Écosse ;
- la phase 2 visait à démontrer l'aspect pratique de la construction et du déploiement de ces centres de données sous-marins à plus grande échelle et dans un délai plus court (moins de 90 jours) ;
- le projet a également mis en évidence les avantages environnementaux potentiels. L'emplacement immergé pourrait être alimenté par des sources renouvelables telles que l'énergie éolienne offshore ou l'énergie des vagues ;
- bien que le projet Natick ait démontré avec succès la faisabilité technique des centres de données sous-marins, Microsoft a finalement décidé de ne pas poursuivre le déploiement à grande échelle ;
- le projet s'est achevé en 2020. Bien que la technologie se soit avérée fiable, il restait des défis économiques et logistiques à relever ;
- Microsoft a décidé qu'il serait plus rentable à court terme de se concentrer sur l'optimisation de la conception des centres de données traditionnels et d'explorer les sources d'énergie renouvelable sur terre ;
- bien qu'ils ne soient pas devenus des centres de données opérationnels, les résultats du projet Natick ont été précieux ;
- elles ont montré que les centres de données sous-marins sont une option viable qui présente des avantages potentiels en matière d'efficacité, de fiabilité et de durabilité ;
- les recherches et les données du projet sont utilisées pour éclairer la conception des futurs centres de données et explorer d'autres applications des technologies sous-marines.
Tony Harvey, directeur principal qui analyse les centres de données pour le cabinet de conseil Gartner, a déclaré que la fiabilité à long terme des installations sous-marines est discutable. Même s'ils souffrent moins du stress thermique qui contribue aux défaillances des GPU et des composants optiques sur terre, les centres sous-marins n'empêcheront peut-être pas complètement les pannes, et il suggère que les réparations seront plus difficiles à effectuer en mer.
Noelle Walsh, responsable de la division Cloud Operations & Innovation (CO+I) de Microsoft, a confirmé que le projet était terminé. « Je ne construirai pas de centres de données sous-marins, où que ce soit dans le monde. Mon équipe a travaillé sur ce projet et il a fonctionné. Nous avons beaucoup appris sur les opérations sous le niveau de la mer, les vibrations et les impacts sur le serveur. Nous appliquerons donc ces enseignements à d'autres cas », a déclaré Walsh.
Un porte-parole de Microsoft a également expliqué : « nous n'avons pas actuellement de centres de données dans l'eau, mais nous continuerons à utiliser le projet Natick comme plateforme de recherche pour explorer, tester et valider de nouveaux concepts autour de la fiabilité et de la durabilité des centres de données, par exemple avec l'immersion liquide ». Microsoft et ses rivaux se concentrent désormais sur le refroidissement par immersion à deux phases.
Le refroidissement par immersion permettrait de rendre les serveurs moins gourmands en énergie et leur demande en eau quasi nulle. Microsoft explique que cette technique pourrait lui permettre de réduire de 95 % la quantité d'eau utilisée par ses centres de données, et d'éliminer à terme l'utilisation de l'eau.
Source : NetworkOcean
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'immersion des centres de données sous la mer ou l'océan ?
Ce concept peut-il être sans danger pour l'environnement comme certains le prétendent ?
Selon vous, pourquoi Microsoft a-t-il arrêté brutalement le projet Natick ? Le coût ou l'impact environnemental ?
À votre avis, quelle technique de refroidissement est l'avenir du refroidissement des serveurs dans les centres de données ?
Voir aussi
Microsoft met fin à l'expérience de centre de données sous-marin dénommée Project Natick, malgré son succès, des rapports suggèrent que l'approche de datacenter sous la mer est coûteuse
Microsoft accélère ses plans pour rendre ses centres de données moins "assoiffés", elle se tourne vers le refroidissement par immersion à deux phases qui ne nécessite pas d'eau
Microsoft déclare que le test de son centre de données sous-marin a été un succès, il utilise l'énergie de manière durable et peut réduire la latence en rapprochant les services cloud des clients