La suite de Slaughterbots met en garde contre la prolifération généralisée de l’IA mortelle si l’ONU n’agit pas lors de sa prochaine réunion

4 min de lecture

Le film original a été visionné plus de 70 millions de fois et a été primé à Cannes Indie Fest

Recevez des notifications avec des nouvelles, des articles et bien plus encore!

BOSTON, 1 décembre 2021 /PRNewswire/ — Le Future of Life Institute (FLI), un organisme à but non lucratif qui s’efforce de réduire les risques extrêmes liés aux technologies puissantes, a sorti aujourd’hui Slaughterbots – if human: kill(), un court-métrage qui met en garde une nouvelle fois contre l’accélération de la trajectoire de l’humanité vers la prolifération généralisée des robots tueurs (slaughterbots) – des armes autonomes qui utilisent l’intelligence artificielle (IA) pour identifier, sélectionner et tuer des personnes sans intervention humaine.  

Future of Life Institute

Produit par Space Film & VFX et diffusé avant la sixième Conférence d’examen de la Convention sur certaines armes classiques (CCAC) des Nations unies, if human: kill() fait suite au court-métrage primé du FLI, Slaughterbots, et dépeint un scénario horrible dans lequel ces armes sont devenues l’outil de prédilection non seulement des militaires, mais aussi de tout groupe cherchant à exercer une violence à grande échelle contre un groupe, un individu ou une population spécifique.

« La récente apparition des robots tueurs sur les champs de bataille signifie que le temps presse pour empêcher ces armes de destruction massive bon marché de tomber entre les mains de quiconque en veut une » a déclaré le professeur Max Tegmark, cofondateur du FLI et chercheur en IA au MIT. « if humain: kill() rappelle que l’humanité est confrontée à un choix imminent : interdire les robots tueurs, ou passer des décennies à regretter d’avoir ruiné notre mode de vie. »

Lorsque le FLI a sorti pour la première fois Slaughterbots en 2017, certains ont critiqué le scénario comme étant irréaliste et techniquement irréalisable. Depuis lors, cependant, les robots tueurs sont utilisés sur le champ de bataille, et des armes faciles à fabriquer similaires sont en cours de développement, marquant le début d’une course mondiale à l’armement qui ne connaît actuellement aucune restriction légale.

if human: kill() propose un moyen concret d’éviter l’issue dystopique contre laquelle il met en garde. La vision de l’action se fonde sur la prescription politique du Comité international de la Croix-Rouge (CICR), une organisation indépendante et neutre qui joue un rôle de premier plan dans l’élaboration et la promotion de lois réglementant l’utilisation des armes. L’un des principes centraux de la position du CICR est la nécessité d’adopter une nouvelle interdiction, juridiquement contraignante, des armes autonomes visant les personnes. Le FLI souscrit à la recommandation la plus récente du CICR selon laquelle le moment est venu d’adopter des règles juridiquement contraignantes sur les armes autonomes létales par le biais d’un nouveau traité international.

« Tracer une ligne rouge nette selon laquelle l’IA ne doit jamais décider de tuer des gens n’est pas seulement une façon d’éviter le pessimisme, c’est aussi essentiel pour réaliser le potentiel de l’IA à transformer notre monde pour le mieux » a déclaré le Dr Emilia Javorsky, qui dirige les efforts du FLI sur les armes autonomes. « Aujourd’hui, nous considérons la biologie comme une force pour le bien et la guérison des maladies, ce qui est en partie dû à l’interdiction des armes biologiques, qui a empêché la militarisation de la biologie. Il est temps d’agir et de sauvegarder une nouvelle science, l’IA. Pour le bien de notre humanité et de notre avenir avec l’IA, nous devons bien faire les choses. » 

Des milliers de chercheurs de premier plan dans le domaine de l’IA et de la robotique, ainsi que des acteurs clés de la technologie, ont signé une lettre ouverte, dirigée par le FLI, qui met en garde contre les dangers d’une course à l’armement en matière d’IA et demande l’interdiction des systèmes d’armes autonomes. Plus de 250 organisations ont signé l’engagement de l’Institut à ne pas participer ou soutenir le développement d’armes autonomes létales.

Pour en savoir plus, consultez le site autonomousweapons.org.

À propos du Future of Life Institute
Le Future of Life Institute est un organisme à but non lucratif qui s’efforce de réduire les risques catastrophiques et existentiels mondiaux liés aux technologies puissantes, notamment l’intelligence artificielle. Son travail consiste à octroyer des subventions pour la réduction des risques, la sensibilisation et le plaidoyer pour une meilleure élaboration des politiques au sein des Nations Unies, du gouvernement américain et des institutions de l’Union européenne.

L’Institut est devenu l’une des principales voix mondiales en matière de gouvernance de l’intelligence artificielle, ayant créé l’un des ensembles de principes de gouvernance les plus précoces et les plus influents : les principes IA d’Asilomar.