IA : les bombes américaines choisissent leurs cibles toutes seules, pas besoin d’humain

Un rapport récent révèle une avancée significative dans la stratégie militaire américaine : l'utilisation de l'intelligence artificielle pour déterminer les cibles des frappes aériennes. Cette utilisation, qui marque un tournant dans la conduite des opérations, interpelle à la sur le plan éthique et stratégique.

bombes ia
Source : 123rf

L'utilisation de l'IA s'étend désormais à divers domaines professionnels, chacun expérimentant ses propres succès et limites. Dans l'aviation, un incident impliquant Air Canada et son chatbot a mis en lumière les risques d'erreurs et de mauvais conseils, aboutissant à une décision de justice contre la compagnie pour des informations trompeuses fournies par celle-ci. Parallèlement, Airbnb envisage d'introduire un “concierge ultime” basé sur l'intelligence artificielle, promettant un service personnalisé et révolutionnaire. Dans le secteur juridique, l'application mobile I.Avocat cherche à démocratiser l'accès au droit, provoquant cependant la réticence des professionnels quant au remplacement de l'expertise humaine par des algorithmes.

Ces exemples soulignent une tendance à l'automatisation et à la personnalisation des services grâce à l'IA, mais révèlent aussi les limites de cette technologie. L'affaire Air Canada illustre comment elle peut induire les utilisateurs en erreur, tandis que les projets d'Airbnb et I.Avocat montrent la volonté d'innover tout en naviguant dans des eaux troubles. Ces cas mettent en avant la nécessité d'une régulation adaptée et d'une réflexion éthique profonde, particulièrement pertinente lorsque l'on considère des applications plus critiques, telles que lancer des attaques militaires.

Les États-Unis automatisent les décisions de frappes aériennes avec l’IA

La récente intégration de l'intelligence artificielle par le Pentagone pour identifier les cibles d'attaques aériennes souligne une évolution notable dans la conduite des opérations militaires. Selon Bloomberg, l'utilisation d'algorithmes de vision par ordinateur a été déterminante dans la réalisation de plus de 85 frappes aériennes au Moyen-Orient. Elle aurait visé des sites stratégiques tels que des entrepôts de drones et des centres d'opérations de milices. Cette approche technologique est issue du projet Maven initié en 2017, qui vise à intégrer l'IA, notamment la vision par ordinateur, pour optimiser l'analyse des données visuelles et soutenir les décisions militaires. Celui-ci illustre la volonté croissante d'automatiser la prise de décision dans les contextes de conflit.

L'adoption de l'IA pour la sélection des cibles de frappes aériennes par les États-Unis s'inscrit dans une tendance plus large et suscite des débats éthiques. La perspective de minimiser la responsabilité humaine dans des décisions aussi critiques que les frappes aériennes pose des questions fondamentales sur la fiabilité et l'éthique de l'automatisation dans le domaine militaire. Alors que des pays comme Israël déploient également l'intelligence artificielle pour des objectifs similaires, les implications d'erreurs potentielles dues à des algorithmes soulèvent de graves inquiétudes sur l'avenir de la guerre et la sécurité globale, incitant à une réflexion approfondie par les gouvernements sur les protocoles d'engagement et les cadres de responsabilité.

Source : bloomberg

Voir les commentaires
Ailleurs sur le web