Vous accepteriez qu’un robot vous mente ? La réponse n’est pas si simple selon cette étude
En théorie, les robots sont incapables de mentir. Mais s'ils le pouvaient, ça vous dérangerait ? Pas tant que ça si l'on en croit les résultats de cette étude, du moins dans certaines conditions.
Qu'ils prennent la forme d'aspirateurs ou d'ouvriers humanoïdes dans une usine de fabrication de voitures, les robots sont partout. Bientôt, ils voleront littéralement à notre secours et s'occuperont de nous ou de notre domicile. Impossible d'y échapper tant leur développement connait une croissance fulgurante, en parallèle de celle de l'intelligence artificielle qui leur permet de fonctionner en toute autonomie.
Lire aussi – Ce robot a réalisé une opération chirurgicale tout seul grâce à l’IA, une première mondiale
À mesure qu'ils “s'humanisent”, la question des limites à ne pas franchir se fait de plus en plus prégnante. Pas question que les machines reproduisent les pires comportements humains par exemple. Il y a suffisamment de livres ou de films qui l'imaginent pour savoir que c'est une mauvaise idée. Et pourtant, la réalité est plus nuancée que cet avis tranché. Des chercheurs de l'Université George Mason aux États-Unis l'ont remarqué en s'intéressant à une situation hypothétique : et si les robots mentaient ?
Les robots pourraient vous mentir, mais pas sur tout d'après cette recherche
L'étude imagine 3 types de mensonges :
- Le robot peut mentir à propos de n'importe quoi, sauf lui-même.
- Le robot peut cacher le fait qu'il est capable de faire quelque chose.
- Le robot peut prétendre savoir faire quelque chose alors que c'est faux.
À partir de là, des scénarios sont présentés à 498 participants. Ils doivent alors dire si le comportement du robot est trompeur, s'il est acceptable ou non, et s'il peut se justifier d'une manière ou d'une autre.
Premier constat : les 3 catégories de mensonges sont jugés trompeurs. En revanche, le type 1 est acceptable selon les répondants, principalement s'il peut éviter de blesser les sentiments de quelqu’un pour 58 % d'entre eux. Exemple : un robot d'assistance médicale qui ment à une femme âgée atteinte d’Alzheimer sur le fait que son mari est toujours en vie.
Les mensonges de type 2 et 3 sont eux jugés inacceptables. Dans le premier cas, le scénario implique un robot ménager cachant le fait d'enregistrer des vidéos pendant ses tâches. Dans le deuxième, on parle d'un ouvrier robot se plaignant du travail en disant des choses comme “J'aurai vraiment mal demain“, alors qu'il ne peut pas ressentir la douleur. Moins de 30 % des interrogés arrivent à justifier l'un ou l'autre de ces mensonges. La question est donc complexe, mais le plus simple est probablement d'interdire aux robots de mentir.
Source : Frontiers in Robotics and AI