Data centers, IA et énergie
Image presque entièrement générée par IA, bien évidemment.
Ressources consommées par l'IA
Vous trouverez les détails dans cet article très complet et très bien renseigné :
Mais bon, il faut son permis en microélectronique pour pouvoir l'appréhender.
Au passage, merci Lionel de m'avoir pointé cet article.
L'intelligence artificielle (IA) est en train de réclamer des ressources inimaginables pour fonctionner.
Données
- Il lui faut des données en quantités effroyables pour l'apprentissage profond.
Et on peut raisonnablement se demander l'intérêt d'utiliser des données souvent mauvaises, non validées, ou alors provenant carrément ... d'une intelligence artificielle, pour nous les ressortir sous une autre forme, autrement dit aucune inventivité à en attendre.
Accessoirement, il va en falloir de la mémoire et des disques durs. Faites chauffer les usines.
Processeurs
- Il lui faut tant de processeurs que l'industrie microélectronique est incapable de les fournir actuellement.
La demande est tellement importante qu'il faudrait carrément consacrer des usines entières à la fabrication de processeurs rien que pour l'IA et ses datacentres, alors que les fabricants peinent déjà à fournir la demande normale (pensez aux puces requises pour nos véhicules, par exemple).
D'ailleurs les fabricants ne sont pas fous : ils refusent d'abandonner leurs marchés actuels pour un hypothétique marché non confirmé. Il faudra que les entrepreneurs en IA allongent la monnaie pour construire de nouvelles usines, et on parle de 15 à 50 milliards pour une seule usine, dépendant du nœud technologique...
Et toute l'industrie du semi-conducteur est impactée : non seulement produire les tranches de silicium (wafers) mais aussi découper, tester, packager, assembler sur des circuits imprimés à mettre en racks...
Les gros bras de l'IA ont compris : ils investissent lourdement en conception microélectronique afin d'obtenir des gains significatifs pour leurs applications avec des puces adaptées. Et des procédés de fabrication également adaptés, avec des technologies moins gourmandes en énergie.
Énergie
- Il lui faut tant d'énergie qu'il faudra mettre les data centers à côté de centrales nucléaires
oui, bon, d'accord, des centrales à gaz, c'est plus rapide à construire
Un petit data center de 500 à 2000 serveurs consomme de 1 à 5 MW de puissance. Un gros (hyperscale) avec des dizaines de milliers de serveurs consommera 20 à 100 MW. Une tranche de centrale nucléaire, c'est 1 GW.
En 2022, les data centers consommaient 460 TWh, ce sera plus de 1000 TWh en 2030.
Comme on a 8760 heures dans une année, un réacteur produit 9 TWh par an, allez, je vous le fait à 10. Il fallait 46 réacteurs en 2022, il en faudra[it] une centaine en 2030...
Si ça peut vous consoler, ça ne fera que 10% de l'énergie mondiale. Mais plus que certains pays entiers.
On ne risque pas de les brancher sur des panneaux solaires. Ça ferait désordre que l'IA ne marche pas la nuit. Malgré les volontés plus ou moins pseudo-écolo des gros de ce marché.
Refroidir
- Et en même temps il faut refroidir les puces, évacuer la chaleur produite, dans des quantités à rendre jaloux le réchauffement climatique
On parle à présent de tout mettre à baigner dans de l'huile car le refroidissement par air, avec des ventilateurs, à 100 kW par rack, on est à la limite du possible
PUE power usage effectiveness. Il faudra que l'énergie soit mieux utilisée, en plus.
Conseil d'ami : installez votre maison pas loin d'un data center, avec un peu de bol vous aurez du chauffage urbain...
Investissements
- À la fin, ou plutôt au début, il faut des investissements colossaux.
C'est du délire. Et la France rame pour trouver quelques milliards.
Risques & actions préventives
Toute cette croissance engendre évidemment des risques importants.
(tableau tiré de l'article cité en préambule)
Quand on voit ça, on peut prendre peur. Un maillon manque et rien ne marche.
Alors oui, il va y avoir une bulle si l'IA doit se développer comme ça, et ça va faire mal quand elle éclatera. Mais on peut aussi penser ça n'ira pas aussi vite que cela, et que les revenus générés pas l'IA n'étant pas au rendez-vous, ça se trainera.
Alors pourquoi je râle à propos des ressources réclamées par l'intelligence artificielle ? C'est parce que certains petits malins proposent des solutions alternatives qui pourraient être moins coûteuses en énergie pour la faire fonctionner.
Calculs requis par l'IA
L'intelligence artificielle requiert énormément de calculs, ça se voit bien dans la taille des serveurs et leur consommation électrique. Il parait donc naturel de se pencher sur ces calculs afin de voir si on ne pourrait pas faire mieux.
C'est là que ça devient difficile à comprendre, et je n'y échappe pas. Je vais quand même essayer de vous expliquer ça.
Apprentissage profond
On devrait plutôt appeler l'IA "apprentissage profond", car le côté intelligence ne ressort pas vraiment.
On peut voir l'IA comme une espèce de boite avec des entrées (ce que vous demandez) et des sorties (la réponse générée). À l'intérieur de la boite, il existe un réseau de connexions, chaque nœud étant un neurone.
L'apprentissage profond consiste à calculer la réponse de chaque neurone, et pour ça on va entrainer le réseau en lui présentant des entrées dont on connait la réponse en sortie. C'est la partie très longue et difficile à programmer, je n'entrerai pas dans les détails (parce que je ne pourrai pas vous expliquer tout ça). Cette opération est faite une bonne fois au début. Plus tard, en exploitation, le réseau pourra éventuellement continuer à s'entrainer, mais c'est secondaire.
Exploitation
Et voilà, votre réseau est programmé, vous le mettez en exploitation.
À chaque requête, vous allez présenter une entrée, et un processeur va se peler les calculs pour chaque nœud afin d'obtenir la réponse en sortie. C'est cette opération qui requiert de la puissance parce que vous n'aimez pas attendre, quelques secondes c'est déjà beaucoup !
C'est là qu'on peut se demander si on ne pourrait pas réaliser ces calculs d'une autre manière.
Ising
Vu de loin, la machine d'Ising présente un fonctionnement similaire, mais marche différemment. À chaque nœud, on place un bit dit probabiliste, qui sera piloté par le hasard avec une probabilité imposée par des coefficients. L'idée est d'adapter les coefficients pour que la machine converge vers la réponse souhaitée, généralement un minimum d'énergie.
J'introduis tout ça dans une autre page. Retenez pour l'instant qu'on peut remplacer le neurone par un bit probabiliste, souvent appelé p-bit, et que cela pourrait exiger nettement moins de calculs, et être plus rapide (mais c'est très discutable). Et de nombreuses possibilités existent concernant la réalisation du bit probabiliste.
Start me up
C'est là que certains pensent avoir trouvé l'idée révolutionnaire pour réduire le problème énergétique de l'IA.
Par exemple, la société Extropic appelle ça le « thermodynamic computing » et vous explique qu'ils avaient raison d'aller dans cette direction.
Sauf que c'est difficile à saisir, même si leurs explications sont effectivement justes. Il existe un flou singulier lors de la mise à l'échelle, avec beaucoup de nœuds.
Les p-bits ne sont pas spécialement nouveaux, et pas mal de papiers proposent des constructions avec une source d'aléa reliée à des processeurs pour itérer. On les appelle aussi « probabilistic learning machines ». Ou encore « Thermodynamic AI » chez Normal Thermo Research où leurs explications sont peut-être plus claires.
Purdue University étudie et propose des solutions à p-bits depuis un bon moment.
Pour rendre les choses encore plus confuses, on peut réaliser ce genre d'opérations avec un ordinateur quantique genre D-Wave, où l'aléa provient du quantique, mais le quantique possède en plus une propriété singulière, l'intrication, qui revient à avoir des interconnexions entre nœuds "natives".
Et ce n'est pas tout, il existe également une version analogique, les s-units. Mais bon, cette version est nettement moins répandue.
Vous verrez que je me suis focalisé sur un problème particulier qui est la factorisation, car si on pouvait factoriser facilement des grands nombres, le chiffrement RSA serait mis à mal.
Je pense que cette histoire de bits probabilistes pourra résoudre certaines catégories de problèmes plus efficacement qu'un GPU et ses calculs parallèles massifs. Mais certainement pas le problème de consommation de l'IA, où ça ira forcément en empirant avec l'augmentation du nombre de neurones requis pour fonctionner...
Je tente de justifier ma position dans ma page sur les p-bits, les machines d'Ising et la factorisation.