L’IA a 20 % de chances de détruire l’humanité, mais il faut continuer à la développer selon Elon Musk
Elon Musk a déclaré que selon lui, l'intelligence artificielle a 1 chance sur 5 de mettre fin à l'humanité telle qu'on la connait. Il estime cependant que le risque en vaut la peine et qu'il ne faut pas arrêter de travailler sur l'IA.
La montée en puissance fulgurante de l'intelligence artificielle est très positive dans certains domaines comme la médecine. Elle permet des choses que l'humain n'aurait pas été capable de faire, sauf à y passer de très nombreuses années sans interruption. Mais derrière ces avancées bénéfiques plane la crainte que l'IA finisse un jour par nous dominer. Ce n'est pas une peur irrationnelle née d'une trop grande exposition à des films et romans de science-fiction. OpenAI, à l'origine de ChatGPT, pense déjà avoir été trop loin en se rapprochant de l'AGI. L'intelligence artificielle générale capable de fonctionner comme le ferait un cerveau humain.
De nombreux scientifiques se sont penchés sur ce qu'on appelle le p(doom). C'est-à-dire la probabilité que l'IA prenne le contrôle de l'humanité ou y mette fin. Ça pourrait passer par la création d'une arme biologique inarrêtable, le déclenchement d'une guerre nucléaire, voire une cyberattaque massive qui causerait l’effondrement de la société.
Elon Musk, qui a fondé OpenAI avec Sam Altman avant de se retirer en 2018, est “assez d'accord avec Geoff Hinton pour dire que [le p(doom) est à] environ 10 ou 20 % ou quelque chose comme ça”. Il fait référence à Geoffrey Hinton, chercheur canadien considéré comme l'un des pionniers de l'IA. Cela dit, le milliardaire estime que “le scénario positif probable l'emporte sur le scénario négatif” et appelle à de ne pas freiner le développement de la technologie.
Elon Musk a calculé que l'IA avait 20 % de chances de mettre fin à l'humanité
Le dirigeant de Tesla et SpaceX n'explique pas comment il a effectué son calcul. Cela n'empêche pas Roman Yampolskiy, chercheur en sécurité de l'IA et directeur du laboratoire de Cybersécurité à l'Université de Louisville de dire qu'il est loin de la réalité. Et pour cause : le scientifique parle d'un p(doom) de 99,999999 %, pas moins. Selon lui, la seule solution pour ne pas se retrouver dans un monde où l'intelligence artificielle est incontrôlable est simplement de ne pas la créer.
Lire aussi – Pour évoluer, l’intelligence artificielle a besoin d’un corps selon Huawei
“Je ne sais pas vraiment pourquoi il pense que c'est une bonne idée de poursuivre cette technologie de toute façon. S'il craint que les concurrents y arrivent en premier, cela n'a pas d'importance car une superintelligence incontrôlée est mauvaise en soi, peu importe qui la crée“, précise Roman Yampolskiy. Une opinion que ne partage pas du tout certains de ses collègues. Un autre pionnier de l'IA, Yann LeCun, parle ainsi d'un risque inférieur à 0,01 % dans la mesure où l'humain a le contrôle. Il peut choisir de faire avancer l'IA jusqu'à un certain niveau, ou s'arrêter avant.
L'intelligence artificielle doit se développer sous contrôle pour ne pas déraper
Elon Musk a une vision similaire à celle de Yann LeCun. L'homme pense que d'ici 2030, l'intelligence artificielle sera supérieure à celle de tous les êtes humains combinés. Ce serait l'émergence de la fameuse AGI qui fait si peur à OpenAI, mais que l’entrepreneur ne voit pas comme une menace du moment que l'homme lui donne une trajectoire. “C'est presque comme élever un enfant, mais qui serait un super génie, un enfant à l'intelligence quasi-divine – et la manière dont vous élevez l'enfant est importante“, explique-t-il.
Lire aussi – IA : 8 millions d’emplois menacés, ce pays fait face à une “apocalypse”
Pour lui, il y a une chose à laquelle il faut faire attention à tout prix : en aucun cas l'IA doit être capable de mentir, “même si la vérité est désagréable“. En effet, des études montrent qu'une fois l'IA capable de mensonges, il sera impossible de la faire revenir en arrière avec les mesures de sécurité actuelles. Pire : il est possible que l'intelligence artificielle apprenne à mentir par elle-même, sans que nous lui en donnions l'ordre. George Hinton le pense aussi, estimant qu'une IA plus intelligente que les humains sera “très douée en manipulation“, un comportement “qu'elle aura appris de nous“. Espérons que toutes ces mises en garde suffisent à convaincre les chercheurs de ne pas franchir la ligne rouge.
Source : Business Insider