Immergé dans la mer en Écosse en 2018 dans le cadre du projet Natick, le centre de données sous-marin autonome de Microsoft a refait surface cet été. Microsoft a passé l’été à faire le point sur son expérience et a déclaré lundi que le test de son centre de données sous-marin a été un succès. La récupération du centre marque le début de la phase finale de l'initiative de recherche Microsoft Project Natick, qui explore le concept de déploiement de serveurs autonomes scellés dans la mer en remplacement des centres de données terrestres traditionnels.Plus de la moitié de la population mondiale vit près des côtes. En installant des datacenters dans des conteneurs près des villes côtières, les données auront une distance limitée à parcourir pour atteindre les communautés. Le but est d’améliorer l’expérience de navigation sur le Web, le streaming vidéo, le jeu en ligne ainsi que d’offrir des expériences authentiques pour les technologies de l’IA. Ainsi, il y a 2 ans, Microsoft a coulé un centre de données autonome au large des Orcades, un archipel subarctique situé au nord de l’Écosse, dans le cadre d'une expérience sauvage.
Le centre de données mesure 12 mètres et a la forme d’un cylindre blanc. Il regroupe 12 baies contenant un total de 864 serveurs et un système de refroidissement de l’infrastructure. Le datacenter a été assemblé et testé en France avant son expédition vers l’Écosse. Une base triangulaire permet de positionner le datacenter au fond de la mer. Ensuite, une fois au fond de l’eau, un câble sous-marin alimente le centre de données et lui permet de communiquer avec l'environnement autour et Internet. Cette initiative devait permettre de réduire la facture d'énergie et d’autres coûts.
Ce centre de données a maintenant été récupéré au fond de l'océan, et les chercheurs de Microsoft évaluent ses performances et ce qu'ils peuvent en apprendre sur l'efficacité énergétique. Leur première conclusion est que le cylindre rempli de serveurs avait un taux de défaillance inférieur à celui d'un centre de données classique. Lorsque le conteneur a été retiré du fond marin à environ un demi-mille de la côte après y avoir été placé en mai 2018, seuls huit des 855 serveurs à bord étaient défaillants. Pour les chercheurs, cela donne lieu à une très bonne comparaison avec un centre de données conventionnel.
« Notre pourcentage de défaillance dans l'eau est d’un huitième de ce que nous voyons sur terre », a déclaré Ben Cutler, qui a dirigé le projet Natick. L'équipe a spéculé que la plus grande fiabilité pourrait être liée au fait qu'il n'y avait pas d'humains à bord et que de l'azote plutôt que de l'oxygène a été pompé dans la capsule. À ce sujet, notons que sur terre, les centres de données se heurtent à des problèmes tels que la corrosion due à l'oxygène et à l'humidité et le contrôle des variations de température. Une situation qui entraîne l’augmentation des coûts de maintenance.
Par contre, dans un environnement étanche avec un contrôle rigoureux de la température, les problèmes sont beaucoup moins nombreux. L'idée est que ces types de serveurs peuvent être facilement déployés en petites et grandes quantités près des côtes des zones qui en ont besoin. Cela permet un meilleur accès local aux différentes ressources basées sur le cloud dans un plus grand nombre d'endroits. Les datacenters sous-marins miniatures ont également d’autres avantages. Les centres de données immergés ne nécessitent pas de biens immobiliers commerciaux coûteux.
Ils bénéficient d’ores et déjà d'un refroidissement presque...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
