Le Lézard
Classé dans : Les affaires, Science et technologie
Sujets : Sans buts lucratifs, Affaires étrangères, FVT

La suite de Slaughterbots met en garde contre la prolifération généralisée de l'IA mortelle si l'ONU n'agit pas lors de sa prochaine réunion


Le film original a été visionné plus de 70 millions de fois et a été primé à Cannes Indie Fest

BOSTON, 1 décembre 2021 /PRNewswire/ -- Le Future of Life Institute (FLI), un organisme à but non lucratif qui s'efforce de réduire les risques extrêmes liés aux technologies puissantes, a sorti aujourd'hui Slaughterbots - if human: kill(), un court-métrage qui met en garde une nouvelle fois contre l'accélération de la trajectoire de l'humanité vers la prolifération généralisée des robots tueurs (slaughterbots) - des armes autonomes qui utilisent l'intelligence artificielle (IA) pour identifier, sélectionner et tuer des personnes sans intervention humaine.  

Future of Life Institute

Produit par Space Film & VFX et diffusé avant la sixième Conférence d'examen de la Convention sur certaines armes classiques (CCAC) des Nations unies, if human: kill() fait suite au court-métrage primé du FLI, Slaughterbots, et dépeint un scénario horrible dans lequel ces armes sont devenues l'outil de prédilection non seulement des militaires, mais aussi de tout groupe cherchant à exercer une violence à grande échelle contre un groupe, un individu ou une population spécifique.

« La récente apparition des robots tueurs sur les champs de bataille signifie que le temps presse pour empêcher ces armes de destruction massive bon marché de tomber entre les mains de quiconque en veut une » a déclaré le professeur Max Tegmark, cofondateur du FLI et chercheur en IA au MIT. « if humain: kill() rappelle que l'humanité est confrontée à un choix imminent : interdire les robots tueurs, ou passer des décennies à regretter d'avoir ruiné notre mode de vie. »

Lorsque le FLI a sorti pour la première fois Slaughterbots en 2017, certains ont critiqué le scénario comme étant irréaliste et techniquement irréalisable. Depuis lors, cependant, les robots tueurs sont utilisés sur le champ de bataille, et des armes faciles à fabriquer similaires sont en cours de développement, marquant le début d'une course mondiale à l'armement qui ne connaît actuellement aucune restriction légale.

if human: kill() propose un moyen concret d'éviter l'issue dystopique contre laquelle il met en garde. La vision de l'action se fonde sur la prescription politique du Comité international de la Croix-Rouge (CICR), une organisation indépendante et neutre qui joue un rôle de premier plan dans l'élaboration et la promotion de lois réglementant l'utilisation des armes. L'un des principes centraux de la position du CICR est la nécessité d'adopter une nouvelle interdiction, juridiquement contraignante, des armes autonomes visant les personnes. Le FLI souscrit à la recommandation la plus récente du CICR selon laquelle le moment est venu d'adopter des règles juridiquement contraignantes sur les armes autonomes létales par le biais d'un nouveau traité international.

« Tracer une ligne rouge nette selon laquelle l'IA ne doit jamais décider de tuer des gens n'est pas seulement une façon d'éviter le pessimisme, c'est aussi essentiel pour réaliser le potentiel de l'IA à transformer notre monde pour le mieux » a déclaré le Dr Emilia Javorsky, qui dirige les efforts du FLI sur les armes autonomes. « Aujourd'hui, nous considérons la biologie comme une force pour le bien et la guérison des maladies, ce qui est en partie dû à l'interdiction des armes biologiques, qui a empêché la militarisation de la biologie. Il est temps d'agir et de sauvegarder une nouvelle science, l'IA. Pour le bien de notre humanité et de notre avenir avec l'IA, nous devons bien faire les choses. » 

Des milliers de chercheurs de premier plan dans le domaine de l'IA et de la robotique, ainsi que des acteurs clés de la technologie, ont signé une lettre ouverte, dirigée par le FLI, qui met en garde contre les dangers d'une course à l'armement en matière d'IA et demande l'interdiction des systèmes d'armes autonomes. Plus de 250 organisations ont signé l'engagement de l'Institut à ne pas participer ou soutenir le développement d'armes autonomes létales.

Pour en savoir plus, consultez le site autonomousweapons.org.

À propos du Future of Life Institute
Le Future of Life Institute est un organisme à but non lucratif qui s'efforce de réduire les risques catastrophiques et existentiels mondiaux liés aux technologies puissantes, notamment l'intelligence artificielle. Son travail consiste à octroyer des subventions pour la réduction des risques, la sensibilisation et le plaidoyer pour une meilleure élaboration des politiques au sein des Nations Unies, du gouvernement américain et des institutions de l'Union européenne.

L'Institut est devenu l'une des principales voix mondiales en matière de gouvernance de l'intelligence artificielle, ayant créé l'un des ensembles de principes de gouvernance les plus précoces et les plus influents : les principes IA d'Asilomar.

Logo - https://mma.prnewswire.com/media/1698069/Future_of_Life_Institute_Logo.jpg

 


Ces communiqués peuvent vous intéresser aussi

à 15:28
L'annonce de la fermeture de l'entreprise Medicago a créé toute une consternation dans le milieu biopharmaceutique de Québec. Tout d'abord; le choc fut brutal pour les employé(e)s concerné(e)s qui ont appris à la dernière minute qu'ils et elles...

à 15:00
Pour que le Canada atteigne ses objectifs climatiques, il est essentiel de réduire la pollution attribuable au secteur des transports. C'est pourquoi le gouvernement du Canada fait en sorte qu'il soit plus facile pour les Canadiens d'acheter, de...

à 14:44
Conformément à l'engagement qu'il a pris dans le cadre de la Stratégie pour un gouvernement vert, le gouvernement du Canada prend des mesures concrètes pour alimenter les immeubles fédéraux en électricité entièrement renouvelable d'ici 2025, afin de...

à 14:19
Le ministre de l'Économie, de l'Innovation et de l'Énergie, ministre responsable du Développement économique régional et ministre responsable de la Métropole et de la région de Montréal, M. Pierre Fitzgibbon, invite les représentants des médias à une...

à 14:00
Mnemo...

à 13:31
Future Electronics a annoncé aujourd'hui que - bien qu'il ne soit plus impliqué dans les opérations depuis quelques années - le président du conseil, président et chef de la direction Robert G. Miller quittera ses fonctions de manière permanente afin...



Communiqué envoyé le 1 décembre 2021 à 05:00 et diffusé par :