Rêves électriques

Rêves électriques

Par Noiraude Blog créé le 17/09/10 Mis à jour le 28/03/20 à 15h38

30 ans de passion pour les jeux vidéo, le Japon et le cinéma, ça laisse forcément des traces. Vous voulez en savoir plus?

Ajouter aux favoris
Signaler
Société

 

 

Hello tous,

Peut-être avez-vous déjà vu quelque part, ou lu, cette abréviation : RLA. Derrière ces trois lettres se cache une inquiétante réalité, dont on commence à peine à mesurer les perspectives. Les RLA, ce sont les robots létaux autonomes, des machines que l'on croyait durablement cantonnées aux salles obscures et aux films de science-fiction désabusés, et dont on sait désormais qu'elles sont l'avenir des conflits militaires. L'avenir, et même déjà le présent dans la mesure où les drônes n'ont fait que préfigurer l'avènement de cette technologie : les "robots tueurs" seraient d'ores et déjà fin prêts pour s'installer au beau milieu des théâtres de conflit.

Bien évidemment, l'on n'en est pas encore au stade du fameux T-800 qui a immortalisé cette figure de la machine de guerre autonome dans la sphère du septième art. A l'heure actuelle, la technologie en est arrivée au niveau de l'assistance au choix, lequel est toujours réservé à l'homme. Ce sont ainsi les machines, de plus en plus, qui sont chargées d'analyser les différents paramètres, d'un tir par exemple, et de proposer la solution la plus optimisée à l'opérateur qui donne son aval. Mais à l'échelle de quelques années apparaîtront des machines de plus en plus sophistiquées, prévient notamment Frank Rieger, directeur technique d'une entreprise de sécurité informatique et, depuis 1990, l'un des porte-paroles du Chaos Computer Club, l'une des organisations de hackers les plus influentes d'Europe. On peut aller encore plus loin : les machines intelligentes, capables en totale liberté de décider de la vie ou de la mort d'hommes, pourraient surgir sur les champs de bataille d'ici 20 à 30 ans, estime l'ONG Human Rights Watch dans un rapport intitulé "Loosing Humanity" particulièrement éloquent sur le sujet (à lire en anglais en cliquant ici). Cela pourrait même aller plus vite, si l'on se fie au reportage ci-dessous, qui évoque l'échéance... 2015 pour l'armée américaine.

L'enjeu, évidemment, est faramineux, car il va d'un intérêt stratégique de premier ordre. Celui qui maîtrisera en premier cette technologie prendra en effet un avantage décisif en cas de conflit. Raison pour laquelle, continue Frank Rieger dans son texte passionnant (à lire ici en français), la question tarauderait nombre d'Etats, inquiets à l'idée que certains gouvernements moins regardants qu'eux sur les droits de l'homme et capables de progresser rapidement sur un plan technologique puissent prendre la tête de cette nouvelle course à l'armement. Car la compétition a bel et bien commencé, et elle fait rage, écrit encore Frank Rieger :

"Nous sommes au début d'une course aux armements dans le domaine des algorithmes pour l'autonomie létale. Le plus rapide et le moins scrupuleux à utiliser de tels systèmes malgré tous les défauts peut selon la logique de cette course aux armements obtenir des avantages stratégiques et financiers considérables. La nouvelle course aux armements marque un tournant aussi pour les chercheurs qui dans le domaine universitaire travaillent sur les robots et l'intelligence artificielle. Pratiquement chaque domaine de recherche est lié à la construction de nouvelles armes intelligentes".

Difficile pour moi de ne pas penser à des règles que je croyais inviolables. Il est en effet inquiétant de noter que les trois lois fondamentales de la robotique (en réalité quatre), posées par Isaac Asimov dès 1942, ont depuis longtemps été évacuées de la réflexion militaire. Les voici ci-dessous, pour rappel :

  • Loi Zéro : Un robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit blessée.
  • Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
  • Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
  • Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

 

Militantisme pour un moratoire

Autant se faire une raison : sans que l'on s'en soit rendu compte, ces principes ont été jetés au rebus. La question, pourtant fondamentale, du droit d'une machine à tuer, aux implications pourtant vertigineuses, n'a plus droit de cité. Aujourd'hui, la question se pose simplement de savoir comment encadrer cette future capacité de destruction. Les problématiques posées sont celles de la préservation des civils, des limites posées par le droit de la guerre, de la capacité de l'unité robotique à distinguer un danger immédiat d'une cible non agressive. C'est un constat de réalisme d'ailleurs dressé dans le rapport de Christophe Heyns, un expert de l'ONU pour ces questions, dans un rapport rendu public le 9 avril dernier (et que l'on peut lire ici).

 

Christof Heyns. Photo ONU/Jean-Marc Ferré

Christof Heyns, qui pose heureusement avec force la question du droit moral d'une machine à administrer la mort, a bien pris conscience de la révolution sociétale qui est en train de se jouer à l'abri des regards. Car demain, l'arme deviendra le combattant. Alors, son rapport tente de mettre en place des garde-fou, et l'homme de proposer récemment devant le conseil des droits de l'homme un moratoire sur les armes létales automatisées qui resterait en vigueur jusqu'à ce que soient résolues des interrogations philosophiques et légales majeures :

- celle, fondamentale, de l'inhumanité de la machine, certes capable de rester rationnelle en toutes circonstances, mais nécessairement dépourvue d'émotions et donc incapable de faire preuve de pitié. En corollaire, celle de la capacité de la machine à distinguer un combattant d'une personne non engagée.

- celle des responsabilités en cas de mort d'un innocent : à qui faudrait-il faire porter le poids de la culpabilité ? Le constructeur, le programmeur, le militaire ?

- celle de la nature même d'une "guerre" opposant deux parties dont l'une ne souffre pas de pertes humaines. Peut-on alors encore parler de guerre ? Ou faut-il commencer à parler de "chasse" ?

- celle, enfin, de la distanciation physique et psychologique induite par ce type de technologie entre l'utilisateur d'un robot autonome et sa victime.

Christophe Heyns pointe du doigt un dernier aspect non négligeable, à savoir que la généralisation des robots létaux autonomes pourrait avoir pour conséquence l'augmentation des conflits armés, sans pertes humaines. Il y aurait à craindre une nouvelle course à l'armement telle que l'humanité l'a connue dans la deuxième moitié du XXe siècle. Un ensemble de raisons qui ont d'ailleurs poussé Human Rights Watch à fédérer toute une série d'ONG dans le cadre d'une campagne internationale pour l'interdiction préventive des robots capables de cibler et d'ouvrir le feu sans l'intervention d'un opérateur humain (cf: Le Monde).

 

Tueur, ou ange gardien ?

 

Autant dire que c'est un débat majeur qui attend notre société mondialisée, et il nous appartient de nous emparer alors qu'il est déjà, sur le point de nous échapper tant la technologie saute à pas de géant de progrès en progrès. Et à l'heure où cette technologie remplace peu à peu l'homme dans ses activités civiles et professionnelles, il est vrai qu'il peut être tentant de remplacer également le soldat par une machine afin de limiter ces pertes humaines toujours si mal vécues par nos sociétés avancées. Mais que l'on soit sûr d'une chose : cela n'ira pas sans conséquences. En poussant la réflexion dans ses retranchements, il se trouve déjà des experts pour pointer du doigt la faiblesse de cette option de civilisation : un simple algorithme qui donne à la machine le droit de vie ou de mort sur l'homme, c'est bien peu de choses pour nous protéger de nos propres créations. De manière plus réaliste, l'on est en droit de se demander si notre propension à la paix n'est pas justement liée à notre crainte de trouver la mort dans le conflit. En ce sens, le robot n'aurait-il pas davantage sa place à soutenir, soigner, secourir un soldat blessé plutôt qu'à prendre les armes, nous incitant à réveiller ce moi belliqueux que deux guerres mondiales ont à peine suffi à étouffer ?

 

 

Sources :

http://www.lemonde.fr/idees/article/2013/06/24/la-campagne-pour-l-interdiction-des-robots-tueurs-se-trompe-t-elle-de-cible_3435578_3232.html

http://www.lemonde.fr/international/article/2013/06/18/le-spectre-des-robots-tueurs_3432237_3210.html

http://www.letemps.ch/Page/Uuid/e8e15796-c962-11e2-b77f-99191a1f2183/Un_moratoire_pour_les_robots_tueurs#.UcoV6DvJSqE

http://www.20min.ch/ro/news/geneve/story/Les-robots-tueurs-dans-le-viseur-des-humanitaires-29947555

http://www.un.org/apps/newsFr/storyF.asp?NewsID=30428&Cr=drones&Cr1=#.UcoYgTvJSqF

http://www.rue89.com/2012/11/23/un-terminator-operationnel-dici-vingt-ans-les-ong-salarment-237239

http://www.alternatives-internationales.fr/l-ethique-du-drone_fr_art_1219_64242.html

http://www.lesauterhin.eu/?p=1804

http://dommagescivils.wordpress.com/2013/04/30/lappel-a-une-pause-dans-le-developpement-des-robots-tueurs-des-nations-unies/

Ajouter à mes favoris Commenter (34)

Commentaires

Sharn
Signaler
Sharn
J'ai pas encore lu l'article mais citer les lois de la robotiques d'Asimov pour ce genre de truc franchement...
Blinis
Signaler
Blinis

il y a un facteur que la majorité des humains ne prennent pas en compte. La surpopulation.


La croissance de la population mondiale n'est pas sans fin, le concept de transition démographique permet aux démographes et géographes d'estimer que le plateau de la population mondiale sera entre 9 et 10 milliards d'individus (plus près de 9). Et après, la croissance de la population, c'est fini ! On a largement de quoi tous les nourrir, et d'énormes progrès à faire pour lutter contre la pollution et la dégradation des ressources naturelles, mais c'est une question de pratiques, pas de population : 3 milliards d'Américains ou de Français suffisent pour venir à bout des ressources planétaires en deux temps trois mouvement.

Sinon, un excellent podcast qui parle d'un excellent bouquin sur les drones avec son auteur, et des enjeux sous-jacents. Ça vaut le coup d'aller au bout, et ça rentre dans le sujet !
Kelun
Signaler
Kelun
Je ne suis pas totalement contre, ni totalement pour.

Mon côté humain "la guerre c'est mal" me dit que si les deux camps possèdent une RLA ça fera moins de morts sur les champs de bataille puisqu'au final, seuls les RLA se détruiraient mutuellement.

Après, mon côté pragmatique me dit que les guerres nous sont utiles, que les pertes humaines militaires ou civiles lors de conflits sont vitales. Parce qu'au delà de l'économie de guerre qui fait tourner les pays, il y a un facteur que la majorité des humains ne prennent pas en compte. La surpopulation.

Aujourd'hui, on est arrivé a un stade ou il faut que des humains meurent dans les guerres pour tenter (vainement) d'équilibrer la population mondiale. En ayant cette "vanne", on continue inlassablement à croître, épuiser nos ressources etcetcetc.
Si demain, lors de guerres, cette vanne n'est plus, on sera a termes obligés "d'inventer" un autre moyen de réguler la population. Comprendre par là, contrôle drastique des naissances, retour de la peine de mort dans tout les pays, sacrifice, purge etcetcetc et tout ça légalement bien sûr.

Après, je ne pense pas que les lois de la robotique sont encore à prendre en compte. Certes, ces machines seront autonomes mais elles n'auront pas encore une conscience vitale, par exemple.

Ils existe des robots ménagers qui sont autonomes, la seule fois où on interfère avec eux, c'est au tout début pour les paramétrer. Mais une fois ceci fait, ils se mettent en marche à l'heure ou vous les avez programmer, font leurs boulot dans toutes les pièces programmées et ensuite, ils retournent à leurs emplacement pour se recharger et se remettre en pause.

Et tout ça, en parfaite autonomie, mais ils n'ont pas encore la conscience d'eux même.
Noiraude
Signaler
Noiraude
La création de ce smiley m'apparaît dans toute sa pertinence ;-)
Le Gamer aux Mains Carrees
Signaler
Le Gamer aux Mains Carrees
JE NE VOIS PAS LE PROBLÈME, DAVE :hal:
P.Y.T.
Signaler
P.Y.T.
Sujet : quel est l'intérêt d'une œuvre d'anticipation ou de science fiction ?
Apparemment, celui qui a eu l'idée de ces LRA ne l'a jamais su !
C'est le début de la fin...
Noiraude
Signaler
Noiraude
Ouais, je trouve aussi. Le progrès, par certains côtés, c'est le reniement de notre humanité.
xPRINCE VALIUMx
Signaler
xPRINCE VALIUMx
"les machines intelligentes, capables en totale liberté de décider de la vie ou de la mort d'hommes, pourraient surgir sur les champs de bataille d'ici 20 à 30 ans"
Et sinon ouais, on est bien dans la merde
xPRINCE VALIUMx
Signaler
xPRINCE VALIUMx
" I'll be back "
Obligé de la sortir, désolé :D

Édito

Ceci n'est pas un blog.

Ceci n'est pas une pipe.

Ceci est une fenêtre sur un pré où je pais en paix.

Les vidéos de Noirdenoir sur Dailymotion  

Suivez-moi sur Twitter @Noirdenoir67

Ou sur la communauté Facebook Rêves électriques (toute jeune !)
https://www.facebook.com/noiraude67/

Le site pour les amis de l'illustre Seb le Caribou: http://seblecaribou.wordpress.com/about/

 Et si vous avez envie d'une petite partie de Mario Kart 8 avec moi : Noiraude67
 

Archives

Favoris