2025-03-29 10:52:00
Les récentes controverses autour de l’IA imitant le style de Studio Ghibli ont mis OpenAI face à de nouveaux défis. Sam Altman, le PDG d’OpenAI, a exprimé son enthousiasme pour la réponse à leur dernier générateur d’images, mais a également signalé que les unités de traitement graphique (GPU) de l’entreprise surchauffaient. En conséquence, OpenAI a été contraint de limiter l’utilisation de cette fonctionnalité. Pour le moment, chaque utilisateur de la version gratuite de ChatGPT pourra générer trois images par jour.
Altman a tweeté : « C’est vraiment amusant de voir à quel point les gens apprécient les images générées par ChatGPT. Mais nos GPUs sont en train de fondre. Nous allons introduire temporairement des limites de taux pendant que nous travaillons à rendre ce système plus efficace. J’espère que cela ne prendra pas longtemps ! La version gratuite de ChatGPT offrira bientôt trois générations par jour. » Cette annonce fait suite au succès fulgurant du nouvel outil, que Altman illustre en changeant sa photo de profil en une image créée dans le style de Ghibli.
it’s super fun seeing people love images in chatgpt.
but our GPUs are melting.
we are going to temporarily introduce some rate limits while we work on making it more efficient. hopefully won’t be long!
chatgpt free tier will get 3 generations per day soon.
— Sam Altman (@sama) March 27, 2025
Comprendre la surchauffe des GPU
La déclaration d’Altman sur le fait que les nouveaux générateurs d’images provoquent la surchauffe des GPU n’est pas simplement une blague. Des outils d’IA générative comme ChatGPT et DALL-E requièrent des ressources informatiques considérables. Au cœur de cette puissance, on trouve le GPU, ou unité de traitement graphique. Pour saisir la signification de la surchauffe des GPU, il est essentiel de comprendre leur fonctionnement et leur rôle dans les systèmes d’IA modernes.
À l’école élémentaire, les élèves apprennent que l’unité centrale de traitement (CPU) est le cerveau de l’ordinateur, gérant diverses tâches telles que la navigation sur le web ou la lecture de musique. Bien que le CPU soit capable de multitâche, les systèmes d’IA nécessitent davantage. Contrairement à un ordinateur traditionnel qui effectue de petites tâches de manière rapide, les systèmes d’IA doivent effectuer des calculs itératifs, résolvant de même problèmes mathématiques un grand nombre de fois, parfois des millions. Cela exige une quantité massive de données à traiter simultanément. C’est ici qu’interviennent les GPU.
Pour illustrer cela, imaginez un CPU comme quelqu’un qui peut cuire un gâteau parfaitement un à la fois, alors qu’un GPU pourrait être comparé à une boulangerie entière capable de cuire des milliers de gâteaux simultanément. À l’origine, les GPUs ont été conçus dans les années 1980 pour rendre les graphiques de jeux vidéo, et aujourd’hui, ils sont devenus essentiels pour former et faire fonctionner des modèles d’IA.
Capacités des GPU
Pour mettre cela en perspective, le jeu Super Mario 64, sorti en 1996, nécessitait environ 100 millions de calculs par seconde. En revanche, des jeux modernes comme Cyberpunk 2077 demandent environ 36 trillions de calculs par seconde. Cette puissance de calcul est indispensable pour créer des effets visuels en temps réel, tels que l’éclairage et les ombres.
Lorsque l’on considère des systèmes tels que ChatGPT ou DALL-E, la demande en puissance est bien supérieure à celle des jeux vidéo. Ces systèmes doivent effectuer des milliards, voire des trillions, d’opérations mathématiques, notamment des multiplications matricielles sur d’immenses ensembles de données. Quand Altman évoque la surchauffe des GPU d’OpenAI, il fait allusion à la pression exercée sur ces unités, causée par une demande d’utilisation excessive, leur faisant fonctionner en continu à pleine capacité.
GPU : l’outil idéal pour l’IA
Les GPU modernes possèdent des milliers de petits processeurs, appelés cœurs. Par exemple, la NVIDIA RTX 3090 est équipée de plus de 10 000 cœurs, dont la plupart sont des cœurs CUDA, conçus pour le calcul parallèle. Ces cœurs fonctionnent simultanément, traitant différentes parties d’un problème complexe en parallèle, ce qui est particulièrement adapté pour les tâches liées à l’IA.
En d’autres termes, imaginez appliquer un filtre sur une peinture en taille réelle pixel par pixel ; un GPU peut réaliser cette tâche extrêmement rapidement en assignant différents cœurs à différents pixels. Ce mécanisme est également appliqué au sein d’un réseau neuronal qui analyse des millions de mots et génère des images pixel par pixel ; c’est un processus intensif. Les GPU ne se contentent pas de calculer plus vite, ils déplacent aussi les données de manière quasi instantanée, ce qui nécessite des mémoires à haute vitesse capables de transférer des térabytes de données par seconde.
L’engouement des entreprises d’IA pour les GPU
Former un modèle d’IA de grande envergure peut prendre des semaines, des mois, voire des années, nécessitant une utilisation continue des GPU. Une fois ces modèles formés, ils peuvent générer divers types de contenu comme du texte, des images, de l’audio, ou du code. C’est pourquoi des entreprises comme Google, OpenAI et Meta investissent massivement dans des centres de données regorgeant de GPU, un investissement souvent chiffré en millions de dollars, ce qui leur vaut d’être comparés à des plateformes pétrolières de l’ère numérique. Actuellement, la demande pour les GPU est si forte qu’ils sont continuellement en rupture de stock. À mesure que les modèles d’IA deviennent plus grands et plus complexes, leur besoin en puissance augmente également.
Revenons à ce générateur d’images : ce qui a commencé comme une tendance sur les réseaux sociaux a rapidement suscité une controverse autour des droits d’auteur, des artistes et de leurs œuvres. De nombreux fans inconditionnels des films Ghibli ont exprimé leur mécontentement concernant l’utilisation de cet outil pour recréer des événements historiques dramatique, parfois avec une touche inspirée par le célèbre réalisateur Hayao Miyazaki.
