Une IA pour traiter les interventions parlementaires : un pas vers l’automatisation de la démocratie (et donc sa fin ?)

Le magazine en ligne inside-IT rapporte que l’administration cantonale zurichoise a fait des tests d’usage d’intelligence artificielle (IA), notamment pour identifier là où il serait nécessaire de poser des garde-fous pour que ces usages soient conformes au bien commun, transparents, contrôlables et équitables. Une plutôt bonne idée, quand on sait que l’usage de l’IA, qui contrairement à ce qu’on croit, n’est en soi pas plus objective, neutre et rationnelle que les humains qui l’ont conçue, même si elle est faite de chiffres, de données et de processus qui ont l’air logiques. Cette idée est toutefois plutôt dangereux pour la démocratie telle que nous la connaissons et l’apprécions.

Sur le principe, se demander comment l’usage de l’IA pourrait être compatible avec les principes de la Démocratie et de l’Etat de droit est crucial. Car les exemples de décisions fondées (ou dictées) par des IA qui ont conduit à des discriminations et autres violations des droits fondamentaux ne manquent hélas pas. Un des plus célèbres est celui qui a fait tomber le gouvernement aux Pays-Bas en 2021, où un rapport d’Amnesty International Intitulé Xenophobic Machines (« Les machines xénophobes »), a montré que des critères relevant du profilage racial ont été intégrés lors de l’élaboration du système algorithmique utilisé pour déterminer si des demandes d’allocations familiales devaient être considérées comme potentiellement frauduleuses. En conséquence, des dizaines de milliers de bénéficiaires de ces prestations, notamment des personnes à faibles revenus avec enfants à charge, ont été accusées à tort de fraude par les autorités fiscales, les membres de minorités ethniques étant touchés de manière disproportionnée. L’usage d’IA au moment de prendre une décision d’une autorité ou administration publique pose en outre plusieurs problèmes liés aux règles de l’Etat de droit : l’usage de l’IA prive souvent le décideur de son devoir de se forger un avis ou d’examiner les circonstances concrètes du cas. Parfois, il le prive carrément de son-libre arbitre : puisqu’il obéit à l’IA en reprenant telle quelle la « décision » qu’elle lui propose (quelle que soit la raison qui le pousse à le faire), il cesse d’être un décideur.

Le canton de Zurich a donc testé une IA pour attribuer au bon département la grosse dizaine de demande parlementaires que son administration reçoit chaque semaine. En effet, chaque demande émanant d’un parlementaire doit être triée et attribuée à un Département de l’exécutif, pour qu’il lui réponde. Ce qui semble pouvoir se faire sur la base de critères stricts, car chaque Département s’occupe de certains thèmes bien définis, mais pas de ceux qui relèvent des autres Départements. Et le rapport du projet-pilote de claironner que 92,5% des quelques 8470 objets ont été attribué au bon Département. Waouh. Bien joué.

Sauf qu’il s’agit clairement d’un « tri » qui n’est en réalité pas aussi rationnel qu’il en a l’air, mais qui est d’abord politique. En effet, même si l’immense majorité (peut-être un chiffre pas loin des 92,5%) des objets parlementaires peut être clairement attribué à un département ou à un autre selon des critères prédéfinis, il existe des cas où l’attribution fait l’objet d’un arbitrage non pas logique, ni même rationnel, mais politique. Car, en fonction de la couleur politique de la cheffe du Département, la réponse à une intervention parlementaire pourra avoir un contenu totalement différent. Dans les exécutifs cantonaux et communaux, les champs de compétences des départements ou dicastères ne sont d’ailleurs pas fixés dans le marbre, mais leur répartition fait l’objet d’intenses négociations au début de chaque législature (et même parfois pendant). Et même dans les parlements, qui, comme l’Assemblée fédérale, connaissent un système de répartition des objets parlementaires bien rodés et fondés sur des critères précis, il arrive que les bureaux des Conseils doivent procéder à des arbitrages, ne serait-ce que lorsqu’il faut déterminer quel Conseil sera le premier, ce qui pourrait avoir une influence politique déterminante tout au long du processus, notamment en lien avec les attaches partisanes des présidences des commissions (dont la voix est prépondérante)… y compris jusqu’à une éventuelle conférence de conciliation (présidée – avec voix prépondérante – par le président de la commission du premier Conseil) qui décidera du succès ou de l’échec final d’un projet.

Or, en visant une automatisation complète de ce processus via une IA, cette composante politique disparaît totalement, au profit d’un tri pseudo-logique et pseudo-rationnel. Je dis bien : pseudo, car les critères de tri, même s’ils ont l’air logiques et rationnels de prime abord, sont eux-aussi imprégnés des valeurs, choix politiques et défauts des humains qui les ont établis, mais aussi de l’influence que ces humains ont pu exercer lors du débat politique qui a permis de les décider. Or, même si ces critères permettent d’attribuer les (plus ou moins) 90% des interventions parlementaires en se fondant sur leur stricte application, les (plus ou moins) 10% restantes doivent rester soumises à un arbitrage politique, lequel pourra s’écarter de ces critères préétablis. Prétendre que l’IA peut tout faire et donc que toute situation peut être passée au crible immuable et omnipotent de ces critères fait totalement fi du contexte politique, des rapports de forces ou des stratégies tant des parlementaires qui déposent des interventions, les soutiennent ou les combattent que du gouvernement qui doit y répondre. C’est un pas supplémentaire vers l’automatisation de la démocratie. Ce qui, à terme, pourrait bien signifier sa fin, car une démocratie est et doit rester un processus humain, soumis au libre-arbitre des humains qui y prennent part. Même si ce libre-arbitre contient un peu plus de biais, d’erreurs et d’incohérences que les processus automatisés. Qui, quoi qu’on en dise, en contiennent aussi. Et même plus souvent qu’on croit.

Cette tendance n’est pas nouvelle : la démocratie parlementaire est de plus en plus souvent attaquée (certains parlent de « dépolitisation »), par exemple parce qu’elle coûte cher ou parce que certains considèrent que des experts ou des mécanismes automatiques comme le frein à l’endettement seraient plus efficaces. Parfois, ces attaques visent carrément à priver les électrices et électeurs de leur libre-arbitre. Dans tous ces cas, il ne s’agit en réalité pas de rendre les décisions plus rationnelles (même si c’est ce qu’on nous promet), mais d’appliquer d’autres valeurs à ces processus décisionnels sous le couvert d’une prétendue rationnel rationalité (algorithme ou décision d’expert), qui en réalité est elle aussi fondée sur des valeurs, des choix politiques, des erreurs et des biais.

Certes, l’usage de l’IA mène à des gains d’efficacité. Dans l’exemple de l’administration cantonale zurichoise, le personnel dit avoir apprécié que le tri des demandes parlementaires soit plus rapide et permettent de mieux utiliser les ressources (notamment à des tâches plus gratifiantes). Dans certains cas, l’utilisation d’IA se justifie pour ces raisons, à conditions que l’on puisse garantir que les éventuelles erreurs et biais soient corrigés, que l’humain qui prend la décision reste dans tous les cas libre de le faire (et soit personnellement tenu pour responsable de sa décision) et que les décisions fondées sur les propositions des IA puissent être corrigées par une instance supérieure. En revanche, en matière de traitement des interventions parlementaires, le risque de transformer la démocratie en un processus automatisé, déshumanisé et donc soustrait au libre-arbitre ne justifie pas cette petite amélioration du fonctionnement de l’administration.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *