Peut-on faire confiance à un robot ?

Innovation

Date de rédaction :
17 février 2015

Dans le film de Jake Schreier Robot & Frank (2012), le fils de Frank, incapable de payer des services à domicile pour son vieux père atteint de troubles cognitifs, lui offre un robot domestique. Donna Harkness, professeur de droit clinique à l’université de Memphis (Tennessee, Etats-Unis), s’appuie sur cet exemple pour aborder des questions éthiques et juridiques : peut-on faire confiance à un robot, et qui est responsable des défaillances éventuelles de la technologie ? Dans un devoir sur l’éthique et les robots d’assistance, Robert Goldshear, élève ingénieur à l’Université de Pittsburgh, rappelle les trois lois énoncées en 1942 par le romancier de science-fiction Isaac Asimov (1920-1992), auteur de I, Robot (Moi, robot). Loi n°1 : un robot ne peut pas faire de mal à un être humain ou, par inaction, permettre à un être humain de faire du mal ; loi n°2 : un robot doit obéir à tout ordre que lui donnent des êtres humains, sauf si ces ordres entrent en conflit avec la loi n°1 ; loi n°3 : un robot doit protéger sa propre existence pour autant que cette protection n’entre pas en conflit avec les lois n°1 et 2.

Harkness DS. Bridging the Uncompensated Caregiver Gap: Does Technology Provide an Ethically and Legally Viable Answer? Elder Law J 2015 ; 22: 399.https://litigation-essentials.lexisnexis.com/webcd/app?action=DocumentDisplay&crawlid=1&doctype=cite&docid=22+Elder+L.J.+399&srctype=smi&srcid=3B15&key=c82605e57c93f39b1c94de518a26693f. Goldshear R. The ethicality of pursuing further research and production of assistive robots for rehabilitation use.  2015. www.pitt.edu/~rsg34/Paper3.html. Robot & Frank, www.youtube.com/watch?v=q4y8YAMPFhk (bande annonce).