Les milliardaires de la tech rêvent désormais d'installer des centres de données pour l'IA dans l'espace. Leur objectif déclaré est d'échapper aux contraintes terrestres, notamment l'accès limité à l’énergie et la raréfaction de l'eau nécessaire au refroidissement des serveurs. Mais un ancien scientifique de la NASA affirme que c'est « une idée absolument catastrophique qui n'a vraiment aucun sens ». Il a déclaré que les centres de données spatiaux ne sont pas pratiques en raison d'une production d'électricité insuffisante, de problèmes complexes de régulation thermique et des effets néfastes des rayonnements sur les composants électroniques.Plusieurs magnats de la tech discutent sérieusement de la construction de centres de données dans l'espace pour faire fonctionner des modèles d'IA parmi les étoiles. Selon eux, telles missions sont les plus pertinentes pour alimenter des opérations gourmandes en énergie. Cette idée émerge alors que les entreprises de fusées Blue Origin de Jeff Bezos et SpaceX d'Elon Musk s'efforcent de rendre les voyages spatiaux moins coûteux et plus courants.
« La Lune est un cadeau de l'univers », a déclaré Jeff Bezos en évoquant les avantages de l'utilisation de la Lune comme base pour lancer des projets dans l'espace. L'idée est digne d'un film de science-fiction, mais elle est de plus en plus plébiscitée. Quant à savoir si elle est réalisable, c'est une tout autre histoire.
Commentant cette nouvelle mode, qui fait de plus en plus d'adeptes, des milliardaires aux politiques, un spécialiste en électronique spatiale affirme d'emblée que « les centres de données dans l'espace ne sont pas pratiques ». Pourtant, plusieurs entreprises engagées dans la course à l'IA se précipitent pour s'associer à des entreprises de lancement spatial afin de déployer des centres de données dans l'espace. Nvidia et Starcloud réalisent un essai.
Le défi de l'alimentation : pourquoi l'énergie solaire ne suffit pas
Le premier défi cité par l'auteur est l'accès à une énergie abondante dans l'espace. Même si l’espace paraît offrir un avantage en énergie (avec un soleil permanent), l’auteur explique que ce n’est pas suffisant pour alimenter un centre de données digne de ce nom. Il prend l’exemple des panneaux solaires de la Station spatiale internationale (ISS), qui - malgré une surface immense (environ 2 500 m²) - produisent un peu plus de 200 kW au maximum.
En prenant comme référence le NVIDIA H200, la consommation électrique par GPU est de l'ordre de 0,7 kW par puce. En pratique, en comptant les pertes, un GPU H200 pourrait consommer environ 1 kW. Le spécialiste en électronique spatiale affirme qu'avec ces chiffres, une installation de la taille de l’ISS pourrait alimenter à peu près 200 GPU H200, ce qui est dérisoire par rapport aux centres de données modernes (des dizaines de milliers de GPU).
Conclusion : « pour égaler la puissance de calcul d’un seul centre de données terrestre, il faudrait lancer des centaines voire des milliers de satellites de la taille de l’ISS, ce qui rend le projet irréaliste ». L'auteur affirme également que les générateurs thermiques à radio-isotopes (RTG) ne seront pas d'une grande aide.
Le refroidissement dans le vide spatial : un cauchemar thermique
L’auteur affirme que l'idée selon laquelle « il fait froid dans l’espace » est trompeuse. Dans le vide, il n’y a ni air ni convection. « Refroidir ne serait-ce qu'un seul GPU H200 serait un véritable cauchemar. Il est évident qu'un dissipateur thermique et un ventilateur ne suffiraient pas », affirme l'ancien ingénieur de la NASA. Dans ce cas, il estime que la chaleur devrait être transférée vers un panneau radiateur qui doit diffuser la chaleur dans l'espace.
Le système de contrôle thermique actif (ATCS) de l'ISS est un exemple de ce type de système de contrôle thermique. Il utilise un circuit de refroidissement à l'ammoniac et un grand système de panneaux radiateurs thermiques. Sa limite de dissipation est de 16 kW, soit environ 16 GPU H200, un peu plus que l'équivalent d'un quart d'un rack au sol. Le système de panneaux radiateurs thermiques mesure 13,6 m x 3,12 m, soit environ 42,5 mètres carrés.
Si nous prenons 200 kW comme référence et supposons que toute cette puissance sera fournie aux GPU, nous aurions besoin d'un système 12,5 fois plus grand, soit environ 531 mètres carrés, soit environ 2,6 fois la taille du panneau solaire correspondant. « Il s'agirait alors d'un satellite très grand, dépassant largement la superficie de l'ISS, le tout pour l'équivalent de trois racks de serveurs standard sur Terre », explique l'ancien spécialiste de NASA.
« Je ne crois pas qu’une entreprise sérieuse ait l'intention de construire un centre de données dans l'espace. Il n'y a aucun...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


Que pensez-vous du calendrier d'Elon Musk sur le lancement des centres de données spatiaux ?