Les milliardaires de la tech rêvent désormais d'installer des centres de données pour l'IA dans l'espace. Leur objectif déclaré est d'échapper aux contraintes terrestres, notamment l'accès limité à l’énergie et la raréfaction de l'eau nécessaire au refroidissement des serveurs. Mais un ancien scientifique de la NASA affirme que c'est « une idée absolument catastrophique qui n'a vraiment aucun sens ». Il a déclaré que les centres de données spatiaux ne sont pas pratiques en raison d'une production d'électricité insuffisante, de problèmes complexes de régulation thermique et des effets néfastes des rayonnements sur les composants électroniques.Plusieurs magnats de la tech discutent sérieusement de la construction de centres de données dans l'espace pour faire fonctionner des modèles d'IA parmi les étoiles. Selon eux, telles missions sont les plus pertinentes pour alimenter des opérations gourmandes en énergie. Cette idée émerge alors que les entreprises de fusées Blue Origin de Jeff Bezos et SpaceX d'Elon Musk s'efforcent de rendre les voyages spatiaux moins coûteux et plus courants.
« La Lune est un cadeau de l'univers », a déclaré Jeff Bezos en évoquant les avantages de l'utilisation de la Lune comme base pour lancer des projets dans l'espace. L'idée est digne d'un film de science-fiction, mais elle est de plus en plus plébiscitée. Quant à savoir si elle est réalisable, c'est une tout autre histoire.
Commentant cette nouvelle mode, qui fait de plus en plus d'adeptes, des milliardaires aux politiques, un spécialiste en électronique spatiale affirme d'emblée que « les centres de données dans l'espace ne sont pas pratiques ». Pourtant, plusieurs entreprises engagées dans la course à l'IA se précipitent pour s'associer à des entreprises de lancement spatial afin de déployer des centres de données dans l'espace. Nvidia et Starcloud réalisent un essai.
Le défi de l'alimentation : pourquoi l'énergie solaire ne suffit pas
Le premier défi cité par l'auteur est l'accès à une énergie abondante dans l'espace. Même si l’espace paraît offrir un avantage en énergie (avec un soleil permanent), l’auteur explique que ce n’est pas suffisant pour alimenter un centre de données digne de ce nom. Il prend l’exemple des panneaux solaires de la Station spatiale internationale (ISS), qui - malgré une surface immense (environ 2 500 m²) - produisent un peu plus de 200 kW au maximum.
En prenant comme référence le NVIDIA H200, la consommation électrique par GPU est de l'ordre de 0,7 kW par puce. En pratique, en comptant les pertes, un GPU H200 pourrait consommer environ 1 kW. Le spécialiste en électronique spatiale affirme qu'avec ces chiffres, une installation de la taille de l’ISS pourrait alimenter à peu près 200 GPU H200, ce qui est dérisoire par rapport aux centres de données modernes (des dizaines de milliers de GPU).
Conclusion : « pour égaler la puissance de calcul d’un seul centre de données terrestre, il faudrait lancer des centaines voire des milliers de satellites de la taille de l’ISS, ce qui rend le projet irréaliste ». L'auteur affirme également que les générateurs thermiques à radio-isotopes (RTG) ne seront pas d'une grande aide.
Le refroidissement dans le vide spatial : un cauchemar thermique
L’auteur affirme que l'idée selon laquelle « il fait froid dans l’espace » est trompeuse. Dans le vide, il n’y a ni air ni convection. « Refroidir ne serait-ce qu'un seul GPU H200 serait un véritable cauchemar. Il est évident qu'un dissipateur thermique et un ventilateur ne suffiraient pas », affirme l'ancien ingénieur de la NASA. Dans ce cas, il estime que la chaleur devrait être transférée vers un panneau radiateur qui doit diffuser la chaleur dans l'espace.
Le système de contrôle thermique actif (ATCS) de l'ISS est un exemple de ce type de système de contrôle thermique. Il utilise un circuit de refroidissement à l'ammoniac et un grand système de panneaux radiateurs thermiques. Sa limite de dissipation est de 16 kW, soit environ 16 GPU H200, un peu plus que l'équivalent d'un quart d'un rack au sol. Le système de panneaux radiateurs thermiques mesure 13,6 m x 3,12 m, soit environ 42,5 mètres carrés.
Si nous prenons 200 kW comme référence et supposons que toute cette puissance sera fournie aux GPU, nous aurions besoin d'un système 12,5 fois plus grand, soit environ 531 mètres carrés, soit environ 2,6 fois la taille du panneau solaire correspondant. « Il s'agirait alors d'un satellite très grand, dépassant largement la superficie de l'ISS, le tout pour l'équivalent de trois racks de serveurs standard sur Terre », explique l'ancien spécialiste de NASA.
« Je ne crois pas qu’une entreprise sérieuse ait l'intention de construire un centre de données dans l'espace. Il n'y a aucun avantage à essayer cela. Il y a toutefois un avantage à dire que vous allez le faire pour faire avancer un discours et détourner l'attention des problèmes auxquels sont confrontés les centres de données terrestres auprès d'un public qui, pour la plupart, ne comprend pas comment fonctionne le transfert de chaleur dans le vide », a écrit un internaute.
La radiation spatiale : un ennemi mortel pour les puces modernes
En supposant que les entreprises puissent à la fois alimenter et refroidir leurs appareils électroniques dans l'espace, elles sont confrontées à un autre problème : la tolérance aux rayonnements. Si vous vous trouvez en orbite terrestre basse (LEO), vous êtes à l'intérieur de la ceinture de radiation interne, où la dose de rayonnement est similaire à celle subie par les avions volant à haute altitude : supérieure à celle d'un avion de ligne, mais pas dramatique.
Plus loin, en orbite moyenne (MEO), où se trouvent les satellites GPS, ceux-ci ne sont pas protégés par les ceintures de Van Allen. En dehors des ceintures, vous êtes essentiellement dans l'espace lointain (les détails varient en fonction de votre proximité avec le Soleil, mais les principes sont similaires).
Les composants électroniques existants qui résistent aux conditions spatiales sont optimisés pour une faible consommation d'énergie et une fiabilité extrême plutôt que pour leurs performances, ce qui contraste fortement avec les exigences de puissance élevée et de haute densité des calculs IA modernes.
Les défis liés à la communication avec les serveurs dans l'espace
La plupart des satellites communiquent avec le sol via des ondes radio. Il est difficile d’obtenir un débit fiable bien supérieur à environ 1 Gb/s. Il compare ce chiffre avec les communications internes d’un rack de serveurs sur Terre, où des interconnexions de 100 Gb/s sont considérées comme minimales. Sans une communication très haut débit, les centres de données déployés dans l'espace ne pourraient pas servir efficacement les usages modernes.
Même si on résout l’alimentation et le refroidissement, les défis liés à la liaison de données rendent le projet beaucoup moins viable. « Je suppose que c'est tout à fait possible si vous le souhaitez vraiment, mais je pense avoir démontré ci-dessus que cela serait tout d'abord extrêmement difficile à réaliser, disproportionnellement coûteux par rapport aux centres de données terrestres, et offrirait au mieux des performances médiocres », a souligné l'auteur.
Les opérateurs de cloud européens regardent également vers le ciel
L'étude de faisabilité ASCEND de l'UE estime que l’approche est techniquement, économiquement et écologiquement réalisable. Le projet vise à déployer dans l'espace des serveurs de calcul à une altitude d'environ 1400 km, soit environ trois fois l'altitude de l'ISS. ASCEND prévoit 13 blocs de construction de centres de données spatiaux d'une capacité totale de 10 mégawatts en 2036, afin d'atteindre le point de départ de la commercialisation des services cloud.
Selon le rapport de l'étude, chaque bloc de construction - d'une surface de 6300 mètres carrés - comprend une capacité pour son propre service de centre de données et est lancé à l'intérieur d'un...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.