ChatGPT consomme bien moins d’énergie que prévu, c’est ce que dit cette nouvelle étude
Une récente analyse remet en question les idées reçues sur la consommation énergétique de ChatGPT. Contrairement à ce que l’on croyait, l’assistant d’OpenAI serait bien plus économe. Un point clé alors que l’impact écologique de l’IA suscite actuellement de vifs débats.

L’intelligence artificielle séduit par ses performances, mais inquiète par son empreinte écologique. ChatGPT, utilisé par des millions de personnes, est souvent cité comme un gouffre énergétique. Jusqu’ici, une estimation répandue affirmait qu’une requête consommait dix fois plus d’énergie qu’une recherche Google. Mais cette idée pourrait être dépassée. Une nouvelle étude vient apporter un éclairage plus précis sur la consommation réelle de cette IA.
Selon Epoch AI, une organisation de recherche spécialisée dans l’IA, ChatGPT serait bien plus économe que prévu. En analysant les performances du modèle GPT-4o, l’étude estime qu’une requête moyenne consomme environ 0,3 wattheure, soit dix fois moins que les 3 souvent avancés. Cette différence s’explique par les progrès réalisés par OpenAI, notamment grâce à des puces plus récentes et une architecture plus efficace. L’organisme qui a réalisé l'étude souligne que l’ancienne estimation provenait de recherches obsolètes, basées sur des technologies dépassées.
ChatGPT consomme moins d’énergie qu’on ne le pensait
Si l’étude souligne les progrès réalisés, elle met en garde contre la hausse future des besoins énergétiques. Les nouveaux modèles, dits de raisonnement, sont beaucoup plus gourmands. Contrairement à GPT-4o, qui répond presque instantanément, ces modèles prennent plus de temps pour analyser et formuler une réponse, nécessitant bien plus de calculs. Par ailleurs, les fonctionnalités avancées comme la génération d’images ou l’analyse de longs documents augmentent encore la consommation. OpenAI, avec ses partenaires, prévoit déjà d’investir des milliards de dollars dans de nouveaux centres de données pour répondre à cette demande croissante.
L’ampleur de cette croissance alarme les experts. Une étude de Rand estime qu’à l’horizon 2027, les centres de données dédiés à l’IA pourraient consommer l’équivalent de toute la capacité électrique de la Californie en 2022, soit 68 GW. Pour répondre à ces défis, OpenAI développe des modèles plus économes, comme le GPT-4o-mini, destiné aux tâches simples. Les experts recommandent aussi aux utilisateurs d’adopter de bonnes pratiques, comme privilégier des modèles légers pour les besoins courants. Malgré ces efforts, la hausse massive de l’usage mondial de l’IA risque de dépasser les gains d’efficacité.