top of page
  • Les applications de l'IA sont infinies : robot de compagnie, voitures sans pilote, diagnostics médicaux, ingénierie etc. La nature même de l'IA remet en cause sa légitimité : comment faire confiance au jugement d'une IA supposé parfaitement rationnel, quand celui-ci est conditionné par les notions qu'elle a apprise par elle même? ( http://www.cnrtl.fr/definition/idiosyncratique ) Certaines IA deviendraient plus fiables que d'autres en fonction de leurs expériences respectives?
     

  • Vu la difficulté évidente pour trouver un responsable en cas d'accident mettant en cause une IA, quid des futurs SALA pilotés par IA? ( https://www.alain-bensoussan.com/avocats/systemes-armes-letaux-autonomes/2016/06/03/ ) Nous avons vu que la guerre est encadrée par le droit international, la mise en place d'armes pilotées par une IA créerait une déresponsabilisation des crimes de guerre sans précédent.
     

  • Mettre en place un droit spécifique aux IA semble inévitable tant son existence fragilise les fondements humanistes sur lesquels nos sociétés sont basées. La barrière entre Travail Assisté par IA et Esclavagisme 2.0 est mince.
     

  • L'IA est la reproduction de l'intelligence humaine, or doter une machine de capacités de raisonnement impliquerait de la considérer, à l'instar de Sandra l'Orang Outan, comme une personne non humaine ( http://www.ladepeche.fr/article/2014/12/23/2017301-argentine-sandra-l-orang-outan-reconnue-personne-non-humaine.html ). Si une IA réclamait le droit de ne pas être contrainte et enfermée injustement (https://fr.wikipedia.org/wiki/Habeas_corpus ), pourrions nous le lui refuser?

bottom of page