12/09/2017

Quelles balises pour la robotique? (1)

Nos capacités cognitives et physiques sont humainement limitées. Certains calculs scientifiques demandent un temps considérable qu'un homme normal n'a pas. Les ordinateurs et robots nous permettent indéniablement d'avancer dans de nombreux domaines de pointe.

Dans les perspectives immédiates, par exemple les soins des seniors dépendants, la robotique comblera-t-elle le manque de personnel  ou va-t-on vers une société déshumanisée? La question se pose. Les aspects éthiques, juridiques et sociétaux liés à l'apparition des robots font déjà l'objet de débats.

coucher de soleil.jpg

Splendide coucher de soleil à La Panne (Mer du Nord) Juillet 2017

 

Isaac Asimov parle de « robotique », pour la première fois, dans sa nouvelle "Le menteur" publiée en 1941. Le contexte démographique du boom du vieillissement exploité par la Silver Economie ravive toutes les questions de cet écrivain précurseur.

  • Les questions éthiques? Quelle place donnerons-nous aux robots? Le robot peut-il s'implanter partout, être autonome? Un robot peut-il refuser une mission? Les robots sont-ils capables d'avoir leur morale ? Permettra-t-on aux robots  de s’auto-détruire ou de se reproduire?  Pour gérer les interactions avec les robots dits intelligents, la Corée du Sud  s'est dotée en 2007 d'une Charte éthique.
  • Au niveau juridique, quel sera le statut des robots? Quelle sera leur responsabilité en cas de dommage, de dérapage? Faut-il des règles définissant un cadre d’utilisation des robots? Y aura-t-il des balises aux logiques conquérantes des robots?

Isaac Asimov avait formulé dès 1940, ses trois lois de la robotique que les lecteurs de science-fiction connaissent:

1. Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.

2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.

3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.

Andra Keay, qui dirige la  Silicon Valley Robotics a énoncé cinq autres lois informelles:

   1. Les robots ne doivent pas être utilisés comme des armes.

   2. Les robots doivent se conformer aux lois, notamment celles sur la protection de la vie privée.

   3. Les robots sont des produits : en tant que tels, ils doivent être sûrs, fiables et donner une image exacte de leurs capacités.

   4. Les robots sont des objets manufacturés: l’illusion créée ne doit pas être utilisée pour tromper les utilisateurs les plus vulnérables.

  5. Il doit être possible de connaître le responsable de chaque robot.

Dans un rapport débattu et voté en 2017, les députés européens ont demandé un cadre légal à l’échelle européenne en matière de robotique. Mady Delvaux, députée démocrate socialiste luxembourgeoise en charge de ce dossier évoque déjà ces trois points:

a) la possibilité de conférer aux robots une personnalité électronique,  limitée comme pour les entreprises,

b) la recherche d'un solution pour la question de la responsabilité civile en cas de dommage,

c) une charte pour empêcher la dépendance émotionnelle des personnes à leurs robots.  

Souvent traités comme de simples objets high-tech, l’octroi, à un robot, d’une personnalité juridique, même limitée, engendrera des conséquences. Après avoir précisé le volet des devoirs  du robot, apparaîtra le problème de ses droits dans la société humaine. Certains experts voient dans ces machines un ersatz d’humanité. Cet anthropomorphisme* les conduit logiquement à s’émouvoir déjà d’abus, de comportements déviants ou assimilables à de la maltraitance des humains sur des robots.

En France existe l’Association du droit des robots fondée par l’avocat Alain Bensoussan. L’objectif, pour cet avocat, ne serait pas tant de préserver une sensibilité robotique que de respecter l’empathie humaine.

L’interdiction de la maltraitance  pourrait aussi être vue comme une façon de préserver les valeurs morales de nos sociétés puisque les hommes doivent toujours être régulés dans leurs instincts par des normes (contrairement aux robots !) pour maintenir une société civilisée.

La mise en place d’une telle protection juridique pour les robots se construirait facilement dans le mesure où un exemple peut être puisé dans nos lois sur le bien-être animal **et dans d'autres législations particulières.

À supposer que de tels droits émergent pour les robots, il faudra définir un champ d’application. Quels seront les robots concernés et ceux qui seront aptes à avoir cette dignité et cette protection juridique? Les robots qui ont une apparence humaine ou animale ou tous les robots ? Un robot chirurgien, un robot compagnon, un robot grille-pain, une voiture "autonome", une tondeuse à gazon...

( A suivre)

 

* "action qui consiste à donner à un animal ou une chose, une représentation humaine , un comportement  ou une qualité humaine". Dès que quelque chose bouge, nous avons une tendance instinctive à y associer la vie.  Si l’objet est  en plus conçu pour ressembler aux humains, l’association pour nous est encore plus rapide. Ce phénomène est avancé au Japon où il est courant d'assister aux funérailles de robots d'entreprise "qui ont terminé leur vie".

 ** « Nul ne peut se livrer, sauf pour des raisons de force majeure, à des actes non visés par la présente loi, qui ont pour conséquence de faire périr sans nécessité un animal ou de lui causer sans nécessité des lésions, mutilations, douleurs ou souffrances ». Article 1. Loi relative à la protection et au bien-être des animaux. 14 août 1986

11:30 Publié dans Droit | Tags : robots, éthique, droit, seniors | Lien permanent | Commentaires (0)

Les commentaires sont fermés.