OVH prêt à héberger l'IA promise par Emmanuel MacronJe reproduis ci-dessous un
post d'Octave Klaba sur X (datant du 11 février 2025).
Depuis quelques jours, on entend beaucoup parler de projets de construction "Datacenters de 1 GW" pour l'IA en France.
Pour bien comprendre le besoin, il faut bien avoir en tête ces 3 chiffres suivants :
Il faut 50 M€, pour investir dans 1000 GPU qui vont fonctionner dans un Datacenter consommant 1 MW de puissance électrique.
Ces 3 chiffres fonctionnent ensemble sur plusieurs niveaux de scale :
- 50 Million € - 1k GPU - 1 MW
- 500 Million € - 10k GPU - 10 MW
- 5 Milliards € - 100k GPU - 100 MW
- 50 Milliards € - 1M GPU - 1 GW
80% de ces montants servent à acheter les GPUs, 20% pour construire un Datacenter.
Pour quel besoin ? Les GPUs sont utilisés pour 2 types d'usage :
- l'entrainement et donc la création d'un modèle LLM avec les données (training)
- l'utilisation d'un modèle LLM existant par les clients (inférence)
Les générations de GPUs actuellement disponibles sur le marché permettent de faire l'entraînement sur environ 100K GPU en fonctionnant ensemble. Le facteur limitant est la distance entre les 2 GPUs les plus éloignés physiquement : à partir d'un certain nombre de GPU connectés ensemble, la distance fait ralentir le fonctionnement de l'ensemble de GPUs.
C'est pourquoi pour le besoin de l'entrainement, une nouvelle génération de GPUs arrive sur le marché : les superchip. Au lieu d'avoir des dizaines de GPU indépendants que vous connectez en suite ensemble, chaque superchip regroupe une dizaine de GPUs sur une seule carte. Bravo ! Vous avez réduit la distance entre les GPUs et vous pouvez connecter désormais 10 fois plus de GPUs ensemble sans ralentir le tout. En revanche, vous avez de nouveaux défis à résoudre : comment distribuer l'énergie et refroidir une infrastructure 10 fois plus dense.
Comment vous procurer une source d'énergie de 1 GW et comment assurer sa redondance ?
Pour héberger la puissance de calcul dans un Datacenter, on utilise les baies aka les racks, qui est une sorte d'armoire de 0,6 mètre de large, 1m de profondeur et 2,5 mètres de hauteur. Chaque baie est alimentée avec environ 20 kW de puissance électrique. Pour la refroidir, on utilise de l'air frais qu'on pousse à travers la baie.
Si on veut utiliser plus que 20 kW dans une baie, l'air ne suffit pas pour la refroidir. Il faut passer en watercooling. C'est là qu'on commence à parler de la nouvelle génération de Datacenter et dans certains cas, on parle de 1 GW. En effet, pour héberger les superchip, on parle désormais de baies à 120 kW, voir même on spécule sur 240 kW par baie et un système de watercooling pour capturer et extraire toute cette chaleur. C'est totalement nouveau par la puissance par baie, mais aussi par ce système de refroidissement watercooling at scales. Voilà pourquoi ce genre de Datacenter n'existent pas et donc il faut les construire.
Pour l'usage d'inférence, il n'y a pas besoin de Datacenters aussi sophistiqué. Pas besoin de superchip non plus. Un modèle LLM a besoin d'un système de GPU qui consomme entre 100 W et 10 kW, rarement 20 kW, équivalent de 1 à 16 GPU. Chaque système étant indépendant, vous pouvez mettre autant de systèmes en parallèle que vous voulez, ce qui vous permet d'absorber un grand trafic web ou mobile. Il est même préférable d'avoir plusieurs Datacenters d'inférence, en parallèle et pourquoi pas 1 par pays. Cela permet d'assurer la haute disponibilité, et les faibles latences en utilisant Datacenter le plus proche du visiteur.
Et OVHcloud dans tout ça ?
Nous possédons plus de 40 Datacenters, dans plusieurs pays en Europe, au Canada, en Amérique du Nord, et Asie. Nous sommes experts de watercooling depuis plus de 20 ans. Ceci nous permet de refroidir >500K serveurs physiques dans tous nos Datacenters. Nos technos internes, opensourcées, coutent 20x à 40x moins que les solutions du marché. Nous possédons les Datacenters de 40 MW à 100 MW, capable d'héberger de l'entrainement, avec de baies à 40 kW mais aussi, nous avons les Datacentres partout dans le monde pour assurer l'inférence. Nos investissements suivent les besoins de nos clients et nous sommes capables d'accélérer si nécessaire.