Une IA pour traiter les interventions parlementaires : un pas vers l’automatisation de la démocratie (et donc sa fin ?)

Le magazine en ligne inside-IT rapporte que l’administration cantonale zurichoise a fait des tests d’usage d’intelligence artificielle (IA), notamment pour identifier là où il serait nécessaire de poser des garde-fous pour que ces usages soient conformes au bien commun, transparents, contrôlables et équitables. Une plutôt bonne idée, quand on sait que l’usage de l’IA, qui contrairement à ce qu’on croit, n’est en soi pas plus objective, neutre et rationnelle que les humains qui l’ont conçue, même si elle est faite de chiffres, de données et de processus qui ont l’air logiques. Cette idée est toutefois plutôt dangereux pour la démocratie telle que nous la connaissons et l’apprécions.

Continuer la lecture

J’ai demandé à chatGPT d’écrire un article scientifique. La suite va vous surprendre…

On dit souvent que les juristes font partie des professions potentiellement menacées par l’IA. C’est ce que dit notamment l’EPFL. Cette vision des choses est certainement biaisée par le droit anglo-saxon, fondé avant tout sur l’étude comparative d’une abondante jurisprudence (case law), émise par des tribunaux de tous niveaux ; il n’est pas étonnant qu’une IA soit plus rapide que les humains pour faire le tri dans une telle masse de données.

Même si le droit suisse (comme le droit continental européen) ne tombe heureusement pas dans de tels travers, il n’en demeure pas moins que le travail du juriste commence par de longues recherches : bases légales, doctrine, jurisprudence. Et qu’à ce petit jeu-là, l’IA a certainement quelques arguments à faire valoir. Mais pour la suite du travail juridique, notamment la construction d’une argumentation, j’ai de gros doutes sur les capacités des intelligences non-humaines. Notamment lorsqu’il faut se montrer créatif pour répondre à des questions inédites (il y en a beaucoup, même dans des domaines juridiques relativement anciens). J’ai donc voulu faire le test avec le désormais célèbre ChatGPT. Qui m’a confirmé que les juristes humains conservent quelques arguments.

Continuer la lecture

L’essor de la robotique redéfinit le droit fondamental à la dignité humaine et à la liberté

L’essor de la robotique ne fait pas que bouleverser notre vie quotidienne. Il pose des questions sur l’avenir de nos droits fondamentaux, à commencer par le premier d’entre-eux : la dignité humaine (art. 7 de la Constitution fédérale). En effet, même si nous sommes encore loin de la « singularité », l’irruption dans nos vies de robots capables de copier à la quasi-perfection les interactions et émotions humaines nous pousse à nous interroger sur la relation humain-machine. Ces questions pouvaient relever de la science-fiction il y a quelques années à peine, mais portent désormais toutes sur des cas bien réels.

Ainsi, la dignité humaine tolère-t-elle que l’on impose à un humain de se faire soigner par un robot dans un contexte de pénurie de main d’œuvre dans le domaine des soins ? Et commande-t-elle que ce soit désormais les robots qui soient chargés des tâches triviales, abrutissantes, harassantes ou dangereuses en lieu et place des humains ? Est-il compatible avec ce droit fondamental d’être « aux ordres » d’un robot ? Ou de lui confier des décisions cruciales pour la suite de notre existence comme trouver un emploi… ou le perdre ? La dignité humaine comporte-elle le droit de n’avoir des interactions humaines qu’avec des congénères humains ? Ces questions méritent un débat éthique et juridique approfondi. Dans ce cadre, il faudra avoir à l’esprit que nos réponses ne seront pas universelles : certaines sociétés comme celles qui sont sous l’influence du Shintoïsme ayant une toute autre approche de la relation avec les « choses ».

L’essor de la robotique pose aussi la question de l’avenir du droit fondamental à la liberté, mais aussi de son indispensable pendant : le devoir de responsabilité. En effet, même si vivre dans un monde de plus en plus gouverné par des algorithmes n’est pas une nouveauté si l’on considère certains algorithmes non-numériques à l’impact considérable comme le « frein à l’endettement », l’usage intensif d’algorithmes pour prendre des décisions ne peut que restreindre le libre arbitre. Car celui qui se fie à un algorithme pour prendre une décision ne décide en réalité pas, il obéit. Et, bien souvent, il n’a aucune idée du mécanisme derrière la décision que lui propose ou impose l’algorithme, car c’est en général une « boîte noire », percluse de biais ou d’erreurs.

Quant à la responsabilité, elle est aussi menacée de disparition par l’essor des robots de plus en plus « intelligents » et autonomes. En effet, en l’absence de règles claires sur la responsabilité en cas de dommages, il y a un fort risque que plus personne ne les assume. La solution ne réside certainement pas dans l’attribution d’une personnalité juridique aux robots (qui resteraient financièrement incapables d’assumer un éventuel dommage). Elle ne réside pas non plus dans une confiance aveugle en les entreprises technologiques. Ces dernières tentent certes de nous faire croire qu’elles se soucient de minimiser les dommages que pourraient causer leurs créations, par exemple avec le jeu « moral machine ». Mais cette poudre aux yeux détourne des vrais enjeux : la question n’est en effet pas de savoir si un véhicule autonome, confronté au dilemme peu réaliste de devoir renverser un vieillard et un chaton pour épargner des enfants, fera le choix le plus « moral » possible, mais bien de savoir qui paiera les dégâts (peu importe si les victimes sont les enfants ou le couple vieillard-chaton).

(Texte paru dans la « newsletter » d’octobre 2019 de TA-Swiss, fondation pour l’évaluation des choix technologiques)

Le « dilemme du véhicule autonome », ou comment les techs enfument le débat de la responsabilité des IA et des robots

Récemment, la revue scientifique « Nature » a publié les résultats d’une étude du MIT (l’étude en Anglais) sur le « dilemme du véhicule autonome » (version actualisée du « dilemme du tramway »). C’est-à-dire comment devrait réagir l’intelligence artificielle (IA) aux commandes d’un tel véhicule face à un accident imminent qu’on ne peut éviter qu’en causant d’autres dommages (y compris aux occupants du véhicule).

capture-decran-2018-11-06-a-11-03-24

 

 

 

 

 

 

Continuer la lecture