Dans les années 1730, l'inventeur Jacques de Vaucanson mettait au point un automate joueur de flûte, capable de contrôler le débit d'air, la forme des lèvres et le mouvement des doigts, à la manière d'un flûtiste humain. Les robots actuels sont-ils aussi bons musiciens ?
En 1770, un automate joueur d’échecs, mis au point par Wolfgang von Kempelen, était en mesure d'affronter des joueurs humains et de résoudre des problèmes complexes, tels que la polygraphie du cavalier. Il s'agissait bien-sûr d'une mystification, démontrée par Edgar Poe dans sa nouvelle Le joueur d'échecs de Maelzel. Certes, le super-calculateur Deep Blue battit en 1997 Garry Kasparov, alors champion du monde d'échecs. Mais il avait besoin de partenaires humains pour déplacer les pièces sur l'échiquier. Les robots actuels sont-ils de véritables joueurs d'échecs ?
On ne parlait pas encore de robots à cette époque. Le mot "robot" date de 1921. Il a été créé par l'écrivain tchécoslovaque Karel Capek, à moins que ce ne soit par son frère Joseph, les avis sont partagés sur la question... En tchèque, "robota" signifie "travail pénible, corvée", ou encore "servage" (voir l'étymologie du mot "robot" ici, dans le Trésor de la langue française informatisé), et se rapproche du mot russe "rabota" qui signifie "travailler". Le mot est apparu dans une pièce de théâtre de science fiction, RUR, dans laquelle les robots, dont le rôle est de travailler dans une usine, finissent par se révolter contre leurs maîtres humains et par les exterminer. Tout ceci est l’œuvre d'une imagination fertile, dirons-nous. Cependant, certains, de nos jours, prennent ce danger très au sérieux : l'université de Cambridge a en effet créé le Centre for the Study of Existential Risk, un thinktank dont le but est précisément de travailler sur les menaces que font peser sur la survie même de l'espèce humaine les nanotechnologies, les biotechnologies et la robotique. Pour davantage d'informations, voir cet article dans 01net.
A partir du moment où il s'est agi d'imaginer la création d'humains artificiels, la question de la loi est rapidement devenu centrale. C'est à l'auteur américain Isaac Asimov que l'on doit d'avoir le premier formalisé des lois de la robotique. Les trois lois d'Asimov interdisent au robot de porter atteinte à un être humain, l'obligent à obéir aux ordres d'un être humain sauf s'ils contreviennent à la première loi, et lui font un devoir de protéger sa propre existence, là encore sauf dans les cas où cela le conduirait à enfreindre les deux premières lois. Plus tard, Asimov a ajouté une "loi zéro" surplombant toutes les autres, et stipulant que le robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit blessée. Ce qui lui donne donc la possibilité "légale" de faire la guerre et éventuellement de tuer des humains ou de désobéir aux ordres, à condition que ceci soit dans l'intérêt supérieur de l'humanité. Mais qui en est juge ? L'humain qui commande le robot ? Le robot lui-même, en déroulant l'algorithme que des humains ont préparé pour lui (car, comme l'affirme Lawrence Lessig, Code is law) ? Et si cet algorithme le conduit à prendre lui-même des décisions, est-ce encore "légal" et juste ?
On le voit, ces questions sont centrales pour l'avenir de l'humanité, et l'évolution rapide des technologies nous incite à croire qu'elles se posent déjà de manière opérationnelle.
Pour réfléchir à ces questions et à bien d'autres, venez nombreux aux ateliers sur les robots que le Labo BnF organise les 15 et 22 mai prochains !
Aucun commentaire:
Enregistrer un commentaire