Enjeux technologiques

Amazon, Microsoft, « mettent le monde en danger avec une IA meurtrière »

Washington (AFP) – Amazon, Microsoft et Intel comptent parmi les entreprises technologiques de pointe qui mettent le monde en danger par le développement de robots tueurs, selon un rapport qui a interrogé les principaux acteurs du secteur sur leur position concernant les armes autonomes mortelles.

L’ONG néerlandaise Pax a classé 50 entreprises selon trois critères : si elles développaient une technologie qui pourrait être pertinente pour l’IA mortelle, si elles travaillaient sur des projets militaires connexes et si elles s’étaient engagées à s’abstenir de contribuer dans le futur.

« Pourquoi des entreprises comme Microsoft et Amazon ne nient pas qu’elles développent actuellement ces armes très controversées, qui pourraient décider de tuer des gens sans implication humaine directe », a déclaré Frank Slijper, auteur principal du rapport publié cette semaine.

L’utilisation de l’IA pour permettre aux systèmes d’armes de sélectionner et d’attaquer des cibles de manière autonome a suscité des débats éthiques au cours des dernières années, avec des critiques avertissant qu’ils mettraient en danger la sécurité internationale et annonceraient une troisième révolution de la guerre après la poudre à canon et la bombe atomique.

Lire aussi :

Kate Crawford : « l’IA est une nouvelle ingénierie du pouvoir »

Un groupe d’experts gouvernementaux a débattu des options politiques concernant les armes autonomes létales lors d’une réunion de la Convention des Nations Unies sur certaines armes classiques qui s’est tenue mercredi à Genève.

Google, qui a publié l’année dernière des principes directeurs évitant l’IA pour l’utilisation dans les systèmes d’armements, figurait parmi les sept entreprises qui se sont engagées dans les « meilleures pratiques » de l’analyse qui couvre 12 pays, tout comme la Softbank du Japon, mieux connue pour son robot humanoïde Pepper.

Vingt-deux entreprises ont été classées dans la catégorie « moyenne » et 21 dans la catégorie « très préoccupante », notamment Amazon et Microsoft, qui soumissionnent toutes deux pour un contrat de 10 milliards de dollars au Pentagone pour fournir l’infrastructure cloud à l’armée américaine.

Parmi les autres membres du groupe « très préoccupant », mentionnons Palantir, une entreprise qui fait partie d’une organisation de capital de risque soutenue par la CIA et à qui on a accordé un contrat de 800 millions de dollars pour développer un système d’IA « qui peut aider les soldats à analyser une zone de combat en temps réel ».

« Les armes autonomes deviendront inévitablement des armes extensibles de destruction massive, car si l’humain n’est pas dans le processus, une seule personne peut lancer un million ou une centaine de millions d’armes », a déclaré mercredi à l’AFP Stuart Russell, professeur d’informatique à l’Université de Californie, Berkeley.

« Le fait est que les armes autonomes vont être mises au point par des entreprises et, dans le cadre d’une campagne visant à empêcher que les armes autonomes ne se répandent, elles peuvent jouer un très grand rôle », a-t-il ajouté.

Le développement de l’intelligence artificielle à des fins militaires a déclenché des débats et des protestations au sein de l’industrie : l’an dernier, Google a refusé de renouveler un contrat du Pentagone appelé Project Maven, qui exploitait l’apprentissage machine pour distinguer les personnes et les objets dans des vidéos de drone.

Elle a également abandonné la candidature de Joint Enterprise Defense Infrastructure (JEDI), le contrat de cloud computing qu’Amazon et Microsoft espèrent remporter.

Le rapport note que les employés de Microsoft ont également exprimé leur opposition à un contrat de l’armée américaine pour un casque de réalité augmentée, HoloLens, qui vise à « augmenter la létalité » sur le champ de bataille.

– A quoi ils pourraient ressembler –

Selon Russell, « tout ce qui est actuellement une arme, les gens travaillent sur des versions autonomes, qu’il s’agisse de chars, d’avions de chasse ou de sous-marins ».

IAI Harpy en Israël est un drone autonome qui existe déjà, « flânant » dans une zone cible et sélectionnant les sites à frapper.

Plus inquiétantes encore sont les nouvelles catégories d’armes autonomes qui n’existent pas encore, comme les minidrones armés comme ceux du court métrage « Slaughterbots » de 2017.

« Avec ce type d’arme, vous pourriez en envoyer un million dans un porte-conteneurs ou un avion cargo, ce qui leur permettrait d’avoir la capacité de destruction d’une bombe nucléaire, mais de laisser tous les bâtiments derrière eux », a déclaré Russell.

Grâce à la technologie de reconnaissance faciale, les drones pourraient « effacer un groupe ethnique ou un sexe, ou à l’aide des médias sociaux, vous pourriez effacer tous les gens avec une certaine vision politique. »

En avril, l’Union européenne a publié des lignes directrices sur la manière dont les entreprises et les gouvernements devraient développer l’IA, y compris la nécessité d’une surveillance humaine, d’œuvrer au bien-être sociétal et environnemental d’une manière non discriminatoire et de respecter la vie privée.

Russell a fait valoir qu’il était essentiel de passer à l’étape suivante sous la forme d’une interdiction internationale de l’IA mortelle, qui pourrait être résumée comme suit : « Les machines qui peuvent décider de tuer des humains ne doivent pas être développées, déployées ou utilisées ».

Source: Yahoo News, le 22 août 2019 – Traduction par Aube Digitale

Vous pouvez partager ce texte à condition d’en respecter l’intégralité et de citer la source et le site: http://www.elishean.fr/

Copyright les Hathor © Elishean/2009-2019/ Elishean mag



Print Friendly, PDF & Email
Articles similaires