Cette lettre met en garde l’humanité tout entière contre les robots tueurs

A fully armed MQ-9 Reaper taxis down an Afghanistan runway Nov. 4. The Reaper has flown 49 combat sorties since it first began operating in Afghanistan Sept. 25. It completed its first combat strike Oct. 27, when it fired a Hellfire missile over Deh Rawod, Afghanistan. (U.S. Air Force photo/Staff Sgt. Brian Ferguson)

« Les armes autonomes deviendront les kalachnikovs de demain. » Voilà, entre autres, ce que contient une grande lettre ouverte, publiée le 28 juillet 2015. Cette dernière met en garde l’humanité tout entière contre l‘évolution alarmante des armes autonomes. Robots, drones, missiles, toutes ces technologies qui pourraient tuer sans intervention humaine inquiètent de nombreuses personnalités célèbres comme Elon Musk, Stephen Hawking ou même d’éminents chercheurs en robotique. Plus de 1 000 personnes ont déjà signé cette lettre dénonçant une course à l’armement qui pourrait, dans quelques dizaines d’années, devenir dangereuse pour l’humanité.

une-robot-tueur

Signée par plus de 1 000 personnalités, cette lettre met en garde l’humanité tout entière contre les robots tueurs

Elon Musk, co-fondateur de Tesla, Stephen Hawking, astrophysicien de renom, ou encore Steve Wozniak, co-fondateur d’Apple, sont venus rejoindre d’éminents spécialistes en robotique et en intelligence artificielle pour dénoncer d’une même voix le danger des armes autonomes. Par armes autonomes, ils laissent entendre : drones, robots, missiles, des technologies qui plus tôt qu’on ne le pense vont être (ou sont déjà) capables de « choisir et combattre des cibles sans intervention humaine ».

Dans une lettre ouverte publiée à l’occasion de la conférence internationale IJCAI sur l’intelligence artificielle, plus d’un millier de personnes ont donc réclamé l’interdiction des « robots tueurs ». Le discours est simple et concis, la course à l’armement robotique, toujours plus performant et toujours plus dangereux, ne doit pas commencer.

intelligence-artificielle-robot-craneUn robot tenant un crâne humain

Tout le monde n’est cependant pas du même avis. On peut penser que les armes autonomes pourraient « remplacer des hommes par des machines [permettant] de limiter le nombre de victimes du côté de celui qui les possède ». Ainsi, Eriksen Søreide, la ministre de la défense en Norvège, a expliqué qu’il « serait inopportun d’interdire le développement des robots tueurs. Il est aujourd’hui difficile de savoir ce que recouvre cette notion. Il n’y a actuellement aucune technologie qui puisse vraiment recevoir ce qualificatif. » Pourtant, le danger est là : comme expliqué dans la lettre, si une grande puissance venait à avancer dans le développement d’armes dotées d’IA, « une course mondiale à l’armement (dans les mêmes proportions) serait inévitable ».

« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires », explique-t-on dans la lettre. Les armes nucléaires très dangereuses demandent tout de même un matériel très coûteux et difficilement accessible, or ces armes autonomes elles, « ne nécessitent aucun matériel de base coûteux ou difficile à obtenir ». Dès lors, « ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler davantage leur population et de seigneurs de guerre souhaitant perpétrer un nettoyage ethnique », alarment-ils.

Les armes autonomes vont pouvoir tuer leur cible sans aucune intervention humaine

drone-arme-militaire

Mais ne vous méprenez pas, les signataires n’ont pas approuvé ce texte dans l’optique de nuire à l’IA. Au contraire, ils veulent préserver son image pour ne pas en oublier sa principale mission et ses bénéfices sur la société, qui ne sont pas négligeables. Leur but est d’éviter que des applications néfastes de technologies prometteuses viennent ternir l’image de l’IA.

L’ONU s’était elle aussi penchée sur la question de l’interdiction des « armes létales autonomes » en avril 2015. Dans un même temps, l’ONG Human Right Watch dénonçait directement « l’absence de responsabilité légale pour les robots tueurs ».

Le lettre est disponible en libre accès sur le site Futur of Life . Cet organisme américain à but non lucratif a publié cette lettre le 28 juillet 2015. Le groupe s’intéresse aux « risques potentiels du développement d’une intelligence artificielle de niveau humain » et annonçait déjà récemment le financement de 37 projets pour prévenir les risques liés à l’intelligence artificielle, grâce à un généreux don d’Elon Musk.

Elon Musk qui soutient depuis déjà longtemps des projets contre les dangers de l’IA

elon-musk

Cette lettre nous ouvre les yeux sur le danger imminent que représentent les armes autonomes. À la rédaction, nous sommes du même avis que les signataires : l’intelligence artificielle peut avoir des bénéfices spectaculaires sur notre société mais son utilisation doit être limitée dans certains domaines au risque de devenir bien trop dangereuse pour nous. Pensez-vous que les armes autonomes doivent continuer à être développées ou, au contraire, croyez-vous comme Stephen Hawking qu’elles pourraient être bien trop dangereuses pour l’humanité ?

Source : SooCurious

Le 31/07/15 by Francky

franck
About franck 2190 Articles
J'ai pris ma première bouffée d'air un 19 mars 1971 à Mâcon en Saône et Loire (71). Passionné par les grands mystères de la vie, par l'humain et notamment son comportement, Je cherche des réponses à mes questions que je n'aurai surement jamais vu la complexité du fonctionnement du genre humain. Les guerres et les haines que génèrent les religions ou la différence de couleur de peau principalement me laisse à penser que l'homme est un ignorant bestial et que les actions qui nous mèneront sur le chemin de l'amour de son prochain, peu importe nos différences, ne sont pas assez nombreuses. Néanmoins j'ai foi en l'être humain...

Be the first to comment

Laisser un commentaire