Cette technologie vieille de 20 ans promet de réduire de 99 % la consommation d’énergie de l’IA
Face aux préoccupations croissantes sur l'impact environnemental de l'intelligence artificielle, une ancienne idée refait surface. Cette technologie pourrait réduire la consommation d'énergie des systèmes d'IA de manière spectaculaire et offrir ainsi une solution durable.
L'intelligence artificielle, aussi révolutionnaire qu’elle soit, a un coût environnemental immense. Récemment, Google a révélé que ses centres de données, essentiels pour alimenter son IA, sont responsables d'une augmentation significative des émissions de gaz à effet de serre et de la consommation d'eau. Ce problème est partagé par d'autres géants de la technologie comme ChatGPT, qui luttent pour trouver un équilibre entre innovation et durabilité. Cependant, une idée développée il y a 20 ans pourrait bien changer la donne, en réduisant la consommation d'énergie des systèmes d'IA de 99,9 %.
Cette idée, appelée Mémoire Vive à Accès Aléatoire Computationnelle (CRAM), permet d'effectuer des calculs directement au sein de la mémoire principale. Cela évite ainsi le transfert de données entre la mémoire et les processeurs, une étape énergivore. Ce concept pourrait transformer radicalement la façon dont l'IA fonctionne, en réduisant considérablement son empreinte carbone. Développée initialement à l'Université du Minnesota en 2003, cette technologie est aujourd'hui plus pertinente que jamais.
Cette idée de 2003 pourrait révolutionner l'efficacité énergétique de l'IA
La technologie CRAM fonctionne différemment des systèmes habituels. Au lieu de simplement stocker des données et de les envoyer aux processeurs pour traitement, elle effectue les calculs directement dans la mémoire. Cela évite des transferts de données coûteux en énergie. En utilisant une technique spéciale qui manipule les propriétés des électrons, elle peut traiter l'information de manière beaucoup plus efficace, réduisant ainsi la consommation d'énergie à une fraction de ce que demandent les méthodes actuelles.
Cette approche permettrait de réduire la consommation d'énergie des systèmes d'IA à un millième de celle des méthodes actuelles, tout en obtenant les mêmes résultats. Selon les estimations, elle pourrait économiser l'équivalent de la consommation annuelle d'électricité d'un pays comme le Japon.
Alors que l'impact environnemental de l'IA continue de croître, l'adoption de technologies comme le CRAM pourrait représenter une avancée de taille vers une informatique enfin durable. Il reste à voir comment cette technologie sera intégrée dans les systèmes existants et si elle pourra résoudre les problèmes énergétiques actuels. Quoi qu'il en soit, elle ouvre la voie à un futur où l'IA pourrait devenir beaucoup plus respectueuse de l'environnement.
Source : University of Minnesota