ChatGPT pourrait quitter l’Europe pour ne pas se plier au RGPD
Sam Altman, le PDG d'OpenAI, a montré les dents lors d'une conférence à l'University College de Londres. Le patron de la société à l'origine de l'IA ChatGPT a déclaré que les activités de son entreprise pourraient cesser en Europe si elle n'était pas en mesure de se conformer aux nouvelles législations sur l'IA.
Depuis quelques mois maintenant, de nombreuses voix s'élèvent pour alerter sur les dangers potentiels que représentent l'IA pour l'avenir de l'humanité. Certaines d'entre elles sont d'ailleurs des acteurs importants de ce secteur porteur.
Geoffrey Hinton, considéré comme l'un des pères fondateurs de l'IA, vient justement de quitter Google pour tirer la sonnette d'alarme. Plus étonnant encore, ce 24 mai 2023, le patron d'OpenAI a lui aussi pris position en appelant les gouvernements à mettre en place un système de régulation. Plutôt louable de la part du dirigeant de la compagnie à l'origine de ChatGPT.
ChatGPT pourrait quitter l'Europe en cas de désaccord avec l'UE
Toutefois, force est de constater que ses envies de régulation sont plutôt limitées. En effet, lors d'une conférence donnée à l'University College de Londres, Sam Altman a déclaré que son entreprise pourrait cesser toute activité au sein de l'UE si elle n'était pas en mesure de se conformer à la nouvelle législation sur l'IA (actuellement en cours de préparation).
“Nous allons essayer de nous conformer”, a-t-il précisé lors de cette table ronde dans la prestigieuse université londonienne. Il a ajouté avoir discuté avec des régulateurs de l'UE au sujet de la loi sur l'IA dans le cadre de sa tournée européenne. Il en aurait profité pour partager les critiques d'OpenAI sur certains éléments de fond de la loi actuelle.
A lire également : Pour Joe Biden aussi, l’IA est dangereuse pour notre société
Ainsi, le scepticisme de la compagnie américaine porte notamment sur la désignation des systèmes “à haut risque”. Dans la version actuelle du texte de loi européen, des grands modèles de langage comme ChatGPT pourraient être considérés comme “à haut risque”, ce qui contraindrait les entreprises qui les exploitent à mettre en place des systèmes de sécurité supplémentaires.
“Nous serons en mesure de répondre à ces exigences ou non. Si nous pouvons nous y conformer, nous le ferons, et si nous ne le pouvons pas, nous cesserons nos activités… Nous essaierons. Mais il y a des limites techniques à ce qui est possible”, met en garde le patron d'OpenAI.
Source : TIME