Plus de la moitié de la population mondiale vit près des côtes. En installant des datacenters dans des conteneurs près des villes côtières, les données auront une distance limitée à parcourir pour atteindre les communautés. Le but est d’améliorer l’expérience de navigation sur le Web, le streaming vidéo, le jeu en ligne ainsi que d’offrir des expériences authentiques pour les technologies de l’IA. Ainsi, il y a 2 ans, Microsoft a coulé un centre de données autonome au large des Orcades, un archipel subarctique situé au nord de l’Écosse, dans le cadre d'une expérience sauvage.
Le centre de données mesure 12 mètres et a la forme d’un cylindre blanc. Il regroupe 12 baies contenant un total de 864 serveurs et un système de refroidissement de l’infrastructure. Le datacenter a été assemblé et testé en France avant son expédition vers l’Écosse. Une base triangulaire permet de positionner le datacenter au fond de la mer. Ensuite, une fois au fond de l’eau, un câble sous-marin alimente le centre de données et lui permet de communiquer avec l'environnement autour et Internet. Cette initiative devait permettre de réduire la facture d'énergie et d’autres coûts.
Ce centre de données a maintenant été récupéré au fond de l'océan, et les chercheurs de Microsoft évaluent ses performances et ce qu'ils peuvent en apprendre sur l'efficacité énergétique. Leur première conclusion est que le cylindre rempli de serveurs avait un taux de défaillance inférieur à celui d'un centre de données classique. Lorsque le conteneur a été retiré du fond marin à environ un demi-mille de la côte après y avoir été placé en mai 2018, seuls huit des 855 serveurs à bord étaient défaillants. Pour les chercheurs, cela donne lieu à une très bonne comparaison avec un centre de données conventionnel.
« Notre pourcentage de défaillance dans l'eau est d’un huitième de ce que nous voyons sur terre », a déclaré Ben Cutler, qui a dirigé le projet Natick. L'équipe a spéculé que la plus grande fiabilité pourrait être liée au fait qu'il n'y avait pas d'humains à bord et que de l'azote plutôt que de l'oxygène a été pompé dans la capsule. À ce sujet, notons que sur terre, les centres de données se heurtent à des problèmes tels que la corrosion due à l'oxygène et à l'humidité et le contrôle des variations de température. Une situation qui entraîne l’augmentation des coûts de maintenance.
Par contre, dans un environnement étanche avec un contrôle rigoureux de la température, les problèmes sont beaucoup moins nombreux. L'idée est que ces types de serveurs peuvent être facilement déployés en petites et grandes quantités près des côtes des zones qui en ont besoin. Cela permet un meilleur accès local aux différentes ressources basées sur le cloud dans un plus grand nombre d'endroits. Les datacenters sous-marins miniatures ont également d’autres avantages. Les centres de données immergés ne nécessitent pas de biens immobiliers commerciaux coûteux.
Ils bénéficient d’ores et déjà d'un refroidissement presque gratuit à l’aide des tonnes d'eau de mer environnantes. Les scientifiques pensent tout de même que l’avantage logistique peut être davantage plus important que le refroidissement ou l'avantage financier immédiat. Dans cet ordre, le taux de défaillance annoncé par Microsoft pour son expérience représente une amélioration considérable. Ce taux d'échec plus faible est important, étant donné qu'il est beaucoup plus difficile de réparer un serveur en panne lorsqu'il est dans un conteneur hermétique au fond de l'océan.
Ce succès, Microsoft dit le devoir à l’environnement. « Nous pensons que cela a un rapport avec cette atmosphère d'azote qui réduit la corrosion et qui est fraîche, et avec le fait que les gens ne font pas de bruit », a déclaré Cutler. En outre, les Orcades sont un archipel utilisé comme un centre de recherche sur les énergies renouvelables, un endroit où le climat est tempéré, peut-être même froid. En effet, son réseau est alimenté à 100 % par les technologies vertes expérimentales en cours de développement au Centre européen des énergies marines, l’éolienne et le solaire.
« Nous avons pu fonctionner très bien sur ce que la plupart des centres de données terrestres considèrent comme un réseau peu fiable », a déclaré Spencer Fowers, chercheur sur les projets spéciaux de Microsoft. Pour les chercheurs de la firme, ces résultats démontrent la faisabilité d'initiatives plus écologiques et plus durables en matière d'énergie pour les centres de données, au-delà de l'efficacité du refroidissement du centre de données lui-même. Alors, cette approche ne présente-t-elle aucun danger pour les centres de données sous-marins ou l’environnement lui-même ?
Selon plusieurs experts, l’inconvénient potentiel des centres de données sous-marins scellés est évident : ils doivent être extrêmement fiables, car ils ne peuvent pas être entretenus régulièrement comme dans le cas des centres de données classiques. Il y a bien sûr un avantage compensatoire un peu moins intuitif : ils n'ont pas d'humains “nuisibles” qui se baladent à l'intérieur, ce qui pourrait déloger des câbles, débrancher des choses ou semer le chaos. Le second volet de la question semble n’avoir pas encore étudié jusqu’à présent par Microsoft et ses chercheurs.
Au moment de la récupération, le cylindre blanc était couvert d’algues, de balanes et d'anémones de mer, après une opération d'une journée. Quant à savoir si ce dernier n’a induit aucune modification sur l’environnement qui l’a hébergé pendant ces dernières années, aucune déclaration n’a été faite. Pour Microsoft toutefois, c’est le moment de renforcer ses initiatives dans le but de devenir neutre en carbone d’ici la prochaine décennie. Cutler a déclaré que des parcs éoliens offshore colocalisés pourraient viabiliser des déploiements de production semblables à ceux-ci.
Même des vents faibles suffiraient probablement à alimenter les modules, avec une ligne électrique côtière intégrée au câblage de données en fibre optique du module en dernier recours. Il note aussi que le refroidissement à l'eau de mer pour de tels déploiements n'est pas seulement moins cher que le refroidissement traditionnel, il laisse les ressources en eau douce vitales pour les humains et la faune sauvage inexploitées. Mais si la technique de Microsoft devenait une norme de l’industrie, cela pourrait empiéter sur le travail des ingénieurs des centres de données, en réduisant leur nombre.
Par ailleurs, les centres de données sous-marins peuvent sembler une idée farfelue. Mais David Ross, qui a été consultant pour l'industrie des centres de données sur de nombreuses années, affirme que le projet a un grand potentiel. Il a déclaré que les organisations confrontées à une catastrophe naturelle ou à une attaque terroriste pourraient le trouver intéressant. « Vous pourriez effectivement déplacer quelque chose dans un endroit plus sûr sans avoir à supporter tous les coûts d'infrastructure énormes liés à la construction d'un bâtiment. C'est flexible et rentable », a-t-il expliqué.
Microsoft s’est aussi montré prudent et n’a pas mentionné si un centre de données sous-marin pourrait représenter un produit commercial, mais il est convaincu d'avoir prouvé que l'idée a de la valeur. « Nous pensons que nous avons dépassé le stade où il s'agit d'une expérience scientifique », a déclaré Cutler. « Maintenant, il s'agit simplement de savoir ce que nous voulons mettre au point : un petit ou un grand centre ? », a-t-il conclu. L'expérience sur les Orcades est terminée. Mais l'espoir est que le résultat sera un stockage de données plus respectueux de l'environnement, à la fois sur terre et sous l'eau.
Source : Microsoft
Et vous ?
Qu'en pensez-vous ?
Voir aussi
Microsoft déploie un datacenter sous-marin en Écosse pour réduire la facture d'énergie. L'avenir du datacenter réside-t-il sous la mer ?
Le centre de données sous-marin de Microsoft est dorénavant visible via des Web caméras, filmant des poissons nageant autour des 864 serveurs
L'avenir du datacenter réside-t-il sous la mer ? Avec son projet Natick, Microsoft espère réduire les temps de latence mais aussi de déploiement
Nadella, PDG de Microsoft : les centres de données sous-marins sont l'avenir, car faciles et rapides à déployer à proximité des utilisateurs