Google pense que ces 7 lois vont éviter que l’IA ne détruise l’humanité

Google dresse une liste de 7 lois ou principes éthiques pour éviter que l’IA (intelligence artificielle) ne détruise l’humanité. L’implication de la firme dans le projet Maven en collaboration avec l’armée américaine a causé beaucoup de remous au sein de l’entreprise. De nombreux employés ont menacé de démissionner. Finalement, Google a dû se résoudre à changer d’avis et décide de rendre son action dans le domaine de l’IA, plus éthique.

google ia 7 lois

Sur son blog, le géant de la recherche explique que “Google aspire à créer des technologies qui résolvent des problèmes importants et aident les gens dans leur vie quotidienne”. La firme croit énormément au potentiel de l’IA et compte bien fournir de plus gros efforts encore pour la développer. Concrètement les utilisateurs en bénéficient déjà à travers de nombreux services proposés par la société. L’exemple le plus concret étant celui de Google Assistant et plus récemment Lens qui vient de débarquer en France et permet de reconnaître des objets, des lieux et des monuments entre autres choses. Toutefois, Google n’a pas toujours utilisé son IA avec bienveillance.

Google : découvrez la liste des 7 principes éthiques du géant

En effet, Google a participé à l’effort de guerre en collaborant avec le Pentagone au projet Maven. L’IA et les infrastructures du géant servent à développer des technologies dans le but de reconnaître des objets et surtout des cibles potentielles. En interne, les tensions furent vives puisque la société a dû faire face à de multiples menaces de démissions. Finalement Google a dû se résigner et ne collaborera plus d’ici 2019 avec l’armée américaine. Mais ce n’est pas fini pour autant, pour ne plus que cela se reproduise, Google a dû monter un groupe “un comité éthique” pour montrer sa bonne foie et celui-ci a rendu sa copie ! Voici la liste des 7 principes éthiques de Google :

  • Être socialement bénéfique : “La portée des nouvelles technologies touche de plus en plus la société dans son ensemble. Les progrès de l'IA auront des effets transformateurs dans un large éventail de domaines, y compris les soins de santé, la sécurité, l'énergie, le transport, la fabrication et le divertissement. Lorsque nous examinerons les possibilités de développement et d'utilisation des technologies utilisant l'IA nous tiendrons compte d'un large éventail de facteurs sociaux et économiques…”. C’est un engagement fort de la part de Google qui souhaite probablement marquer les esprits avec ce premier point.
  • Éviter l’injustice : “Nous chercherons à éviter les impacts injustes sur les personnes, en particulier ceux qui sont liés à des caractéristiques sensibles telles que la race, l'origine ethnique, le sexe, la nationalité, le revenu, l'orientation sexuelle, les capacités et les convictions politiques ou religieuses”.
  • Être construit et testé pour la sécurité : “Nous concevrons nos systèmes d'IA de manière prudente et nous chercherons à les développer conformément aux meilleures pratiques en matière de recherche sur la sécurité de l'IA”.
  • Responsable envers les personnes : “Nous concevrons des systèmes d'IA qui offrent des opportunités appropriées de retour d'information, d'explications pertinentes et d'appel”.
  • Intégrer des principes de vie privée : “Nous donnerons la possibilité d'avis et de consentement, encouragerons les architectures avec des mesures de protection de la vie privée et fournirons une transparence et un contrôle appropriés sur l'utilisation des données”.
  • Maintenir des normes élevées d'excellence scientifique :”L'innovation technologique est enracinée dans la méthode scientifique et un engagement à ouvrir l'enquête, la rigueur intellectuelle, l'intégrité et la collaboration. Les outils d'IA ont le potentiel de débloquer de nouveaux domaines de recherche scientifique et de connaissance dans des domaines critiques comme la biologie, la chimie, la médecine et les sciences de l'environnement”.
  • Être mis à disposition pour des utilisations conformes à ces principes : “De nombreuses technologies ont plusieurs usages. Nous allons travailler pour limiter les applications potentiellement nuisibles ou abusives”.

Google : l’IA ne poursuivra pas ces 4 objectifs

Ce n’est pas fini, Google s’interdit également certaines pratiques, la firme y est sans doute poussée par les nombreux employés qui se sont manifestés au sein de son entreprise. Voici la liste des exemples d’applications de l’IA que ne compte pas développer Google :

  • Les technologies qui causent ou sont susceptibles de causer un dommage global. Lorsqu'il y a un risque important de préjudice, nous ne procéderons que lorsque nous croyons que les avantages l'emportent largement sur les risques et que nous incorporons les contraintes de sécurité appropriées.
  • Armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement les blessures aux personnes.
  • Les technologies qui recueillent ou utilisent des informations pour la surveillance en violation des normes internationalement acceptées.
  • Les technologies dont l'objet contrevient aux principes largement acceptés du droit international et des droits de l'homme.

Google prévient que cette liste est susceptible d’évoluer avec le temps et son apprentissage dans le domaine de l’intelligence artificielle. Partagez votre opinion dans les commentaires, pensez-vous que nous pouvons faire confiance à Google pour garder cette ligne de conduite ?

Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !