AEPL

Rapport AEPL “Gouvernance de l’IA”

Publié le 15/06/2020

Pour une meilleure gouvernance européenne de l’Intelligence Artificielle.

L’Union Européenne souhaite :

  • Une IA qui place l’humain et le citoyen au premier plan ;
  • Des technologies fiables et donc dignes de confiance ;
  • Mettre ces technologies au service d’une société démocratique, d’une économie dynamique et durable et de la transition écologique.

L’AEPL adhère entièrement à ces objectifs. Les suggestions qui suivent ont pour objet de contribuer à leur réalisation.

Nous adossons ses suggestions à trois sources fondatrices du fonctionnement de l’Union.

  • En tout premier lieu le Traité sur le fonctionnement de l’Union et, en particulier, ses articles 8 (élimination des inégalités), 9 (clause sociale horizontale), 10 (lutte contre les discriminations), 11 (protection de l’environnement), 12 (protection des consommateurs), 15, 1 et 3 (principe d’ouverture de la gouvernance), 16 (protection des données personnelles).
  • Ensuite, la Charte des droits sociaux fondamentaux, en particulier ses articles 8, 21, 31 (conditions de travail justes et équitables), 37, 38 et 42.
  • Enfin, le Socle européen des droits sociaux, en particulier son principe 10.

En outre, l’AEPL invite la Commission à exécuter les suggestions du PE relatives à l’IA, en particulier les recommandations reprises dans le document du Parlement Européen en annexe 1.

L’action de l’Union vise à « accélérer le déploiement de l’IA ». Ce déploiement commande évidemment la confiance des utilisateurs. On retrouve mutatis mutandis la logique de la directive machines (1989) rédigée dans le contexte de l’édification du marché intérieur, afin de fiabiliser la libre circulation des biens.

Ainsi, le critère « digne de confiance » motive une initiative réglementaire basée sur des exigences de fiabilité afin de maîtriser les risques pour protéger les consommateurs et les données. L’objectif régulateur semble cibler les risques majeurs des « systèmes d’intelligence artificielle à haut risque », qui appellent « des règles claires ».

Cette maîtrise des risques de nature à générer la confiance citoyenne n’est pas indifférente au contexte actuel de la pandémie. Le dispositif à l’étude relève, en effet, d’une fonction essentielle de l’État : la protection des citoyennes et des citoyens, la prise de soin préventive à la mise sur le marché et à l’utilisation. En amont, la conception ; en aval, à l’instar du RGPDP, la protection      2notamment des libertés publiques fondamentales.

La pandémie nous rappelle tragiquement que cette protection, que cette prise de soin peut être assimilée à des fonctions régaliennes de l’État au point de justifier des restrictions substantielles aux libertés démocratiques. Il ne s’agit pas ici de trancher le débat sur la pertinence de cette justification, mais c’est le lieu de rappeler que protection et soin appartiennent au plan vertical de la res publica, de l’intérêt général et des valeurs qui n’ont pas de prix et qui s’imposent, par conséquent, au plan horizontal des intérêts particuliersi.

Par l’imposition de limites et de règles aux échanges horizontaux, la force appartient à l’État de droit et non à la loi des plus forts.

La qualité démocratique des prises de décisions et des processus de formation des règles, la transparence de ces processus, l’indépendance des autorités publiques par rapport aux intérêts particuliers, l’adéquation des actes aux paroles, aux annonces, aux engagements, autant de conditions de tisser la confiance citoyenne.

C’est dans cet esprit que l’AEPL vous transmet les mises en garde et les suggestions ci-dessous à la veille de la rédaction du dispositif voulu par l’Union.

   1. Courage politique : on ne peut pas contenter tout le monde

Il ne sera pas facile pour les autorités européennes d’affermir l’État de droit face aux états de fait économiques voulus par les marchés et par les oligarchies de l’IA.

En effet, de tous côtés, des forces économiques font pression pour un retour aussi prompt que possible au « business as usual » et même pour la mise entre parenthèses de protections publiques – surtout écologiques – au nom des impératifs de croissance. Ainsi, on demande le report des objectifs de 2030 en matière de climat, l’idée de Green deal de la Commission est attaquée, une série d’acteurs du secteur numérique vilipendent le RGPDP, l’industrie plaide pour l’assouplissement des règles nationales etc.ii

Autrement dit, la fixation du dispositif à sa place à savoir sur l’axe vertical de l’intérêt général nécessitera un engagement politique fort.

  1. Placer le dispositif dans les cadres réglementaires de l’Union.

La situation du dispositif sur l’axe vertical de la protection et de la prise de soin réclame l’adoption de normes « dures » – directive(s) – par opposition à la soft law. En effet, de telles normes « molles » ont pour effet de faire « redescendre » le dispositif sur l’axe horizontal des intérêts particuliers au mieux moralement tempérés par des bonnes pratiques volontairement mises en œuvre à l’enseigne de la responsabilité sociale des entreprises. Il ne s’agit pas ici de mettre en doute l’honorabilité et l’importance de telles pratiques ; il s’agit d’en souligner les défauts de généralisation, d’opposabilité 3 à tout le secteur, et de pérennité. Le respect de bonnes pratiques admet, en effet, la partialité et la sporadicité, que ne peuvent autoriser la fiabilité et la confiance attendues par la Commission.

Faut-il rappeler les effets délétères de la soft law, par exemple, sur le dialogue social paralysé par les « accords volontaires » alors que les interlocuteurs sociaux avaient le pouvoir de conclure de véritables conventions collectives ? Ou, encore, les résultats décevants de la méthode ouverte de coordination qui a douché les espoirs ouverts par le « processus » de Luxembourg en matière d’emploi ?

En revanche, les obligations en matière budgétaire, assorties de sanctions, donnent toute la mesure de leur vigueur.

La sécurité des produits en IA exige des règles d’autant plus solides qu’on constate une tendance au relâchement des règles de sécurité soit dans les normes encadrant les autorisations d’exploitationiii, soit dans le respect des prescriptions de prévention en cours de productioniv. Ce relâchement semble antinomique avec les exigences citoyennes croissantes écologiques et de sécuritév. Il illustre l’efficacité des lobbies et l’incurie préventive dans un certain nombre d’entreprises.

  1. La stratégie de l’industrie : maîtriser le temps.

L’industrie veut garder la main sur la nature des innovations et sur le tempo de leur commercialisation dans un monde qui remet de plus en plus en question les finalités des innovations et leurs retombées sur les équilibres des écosystèmes.

  1. Nécessité de défendre le principe de précaution.

Dans le contexte stratégique évoqué ci-dessus, à l’initiative du Forum européen du risquevi, l’industrie a développé et essaie de convaincre les pouvoirs publics d’adopter un pseudo principe d’innovation (qu’elle contrôle) qui concurrence le réel principe de précaution seul existant en droit. Ce pseudo principe d’innovation sert à justifier toutes sortes de temporisations, d’entorses et d’exonérations plus ou moins durables à la prise de vigueur légale du principe de précaution. Le but est bien évidemment une reconnaissance au moins de facto au mieux de jure d’un principe d’innovation qui tiendrait le principe de précaution et la réglementation en respect. L’AEPL n’accepte pas de telles manœuvres.

    5. Distinguer la science des technosciences.vii

Dans la même veine stratégique, des secteurs créent régulièrement la confusion entre la recherche scientifique fondamentale et l’innovation technologique, entre sciences et technosciences. Au nom de cette confusion, ces dernières devraient bénéficier des mêmes garanties de liberté (académique si          4 on peut dire) que la recherche fondamentale. C’est oublier que la raison d’être, gratuite, de faire avancer la connaissance et la mission pédagogique d’utilité publique placent la recherche fondamentale sur le plan vertical de l’intérêt général. En revanche, l’innovation technologique dans le plan horizontal des relations marchandes doit s’inscrire dans les règles de l’intérêt général.

La confusion est évidemment alimentée par le sous-investissement dans la recherche universitaire (en Belgique depuis la fin des années 70) et par la prise de relais financier par l’industrie.

  1. Tirer les leçons des expériences dans d’autres domaines de l’innovation technologique.

En particulier, le secteur de l’agrochimie signale une typologie très complète des tactiques de gain de temps, de contrôle et de diversion : retarder la mise en œuvre des réglementationsviii, jeter le doute sur les études scientifiques qui dérangent, discréditer les auteurs et les auteures de ces études, circonvenir les politiques appelés à décider, financer des recherches servilesix, faire passer ses propres résultats, s’attacher et contrôler les scientifiques des institutions publiques et des universités…

Même si, au bout du compte, le résultat n’est pas celui escompté pour telle ou telle autorisation, le temps gagné permet de développer d’autres productions qui, elles aussi, auront tout loisir de s’enraciner avant d’être éventuellement écartées dans un avenir plus ou moins lointain.

Le prétendu « principe » d’innovation prend ainsi tout son sens, afin que l’industrie ait toujours la main sur le temps. En effet, ce qui l’intéresse, ce n’est pas le long terme mais la succession des courts termes de mises, sur le plan horizontal des marchés,d’innovations qui génèrent les profits avant d’être éventuellement écartées par le plan vertical de l’intérêt général. Il faut simplement que le principe d’innovation précède chaque fois celui de précaution, ce qui est d’ailleurs logique si les deux principes sont placés sur pied d’égalité. C’est à cette fin que l’industrie souhaite que l’innovation soit reconnue en principe. À ce moment, l’état de fait se substitue à l’État de droit au moins le temps nécessaire des profits. L’AEPL ne peut ni ne veut s’inscrire dans un tel scénario.

À cet égard, nous soulignons les effets pervers de deux procédures de l’Union à ne pas reproduire en matière d’IA.

Primo, en agrochimie, la « procédure de données de confirmation » qui autorise la mise sur le marché moyennant l’obligation pour le fabricant de compléter dans l’avenir la documentation d’innocuité du produit.

Secundo, les procédures de trilogues à répétition (Conseil, Commission, Parlement) sur un même sujet en cas de désaccord du Conseil. Ces procédures successives ne servent qu’à entrer dans le jeu de gain de temps de l’industrie et à inciter la Commission à chaque tour de négociation à affadir ses propositions de niveaux de protections dans l’espoir de trouver un accord au Conseilx. C’est au             5 Parlement que doit revenir la décision.

Enfin, on ne peut pas confier la certification des produits comportant un certain niveau de risque au fabricant lui-même : la certification de conformité du produit aux exigences essentielles de sécurité de l’Union par tiers s’impose dans ce cas. Le niveau de risque, la qualification des tiers certificateurs et leur indépendance doivent faire l’objet d’un large débat démocratique.

« En ce qui concerne les applications d’IA à faible risque, la Commission envisage un système de label non obligatoire si elles appliquent des normes plus élevées. » Ceci suppose sans doute l’autocertification par les producteurs. Ce principe d’auto-certification mériterait un sérieux examen critique au regard de son application depuis trente ans.

  1. Les exigences d’indépendance et de transparence.

Les citoyennes et les citoyens de l’Union attendent la détermination des autorités publiques dans la lutte contre les lobbies, contre les conflits d’intérêt, contre les collusionsxi, contre les pressions d’opérateurs économiques sur des scientifiques. L’autorité européenne doit assurer la transparence et la publicité des processus de décision. L’invocation du secret des affaires ou de la propriété intellectuelle organisent à trop bon compte l’opacité, en particulier des études d’expertisexii. Des procédures publiques vérifiées par le Parlement doivent garantir l’indépendance des scientifiques chargés des évaluationsxiii.

De son côté, le 7 mars 2019, le tribunal de l’Union européenne a annulé une décision de l’Autorité européenne de sécurité des aliments (EFSA). Le tribunal a jugé que les études confidentielles sur la toxicité du glyphosate doivent être rendues publiques, estimant que «l’intérêt du public à accéder aux informations » dans les questions environnementales est supérieur aux intérêts commerciauxxiv. L’AEPL considère que la même règle vaut dans le domaine de l’IA.

Précisant ses intentions en matière d’IA, la Commission affirme d’ailleurs : « les systèmes d’intelligence artificielle devraient être transparents et traçables, tout en garantissant un contrôle humain. Les autorités devraient être en mesure de tester et de certifier les données utilisées par les algorithmes. Des données sans biais sont nécessaires pour entraîner les systèmes à haut risque à fonctionner correctement et pour garantir le respect des droits fondamentaux, notamment la non-discrimination. »

La Commission précise que son dispositif ne concerne pas les applications militaires. L’AEPL rappelle toutefois que les oligopoles technologiques ne font pas cette différence. Au point que ce sont les travailleurs de Google qui ont récemment tenu en échec partie de la porosité entre applications civiles et militaires. Il faut tenir compte de ce type de confusion quand on parle de transparence.

Par ailleurs, des oligopoles engagent des moyens astronomiques et parfois peu ragoûtants pour faire valoir la loi du plus fort et peser sur le plan vertical des autorités publiques qui ne disposent que

de la Loi pour protéger les citoyennes et les citoyens.                                                                                 6

Au-delà de la question de la sécurité et de la protection des données, le dispositif devrait aussi garantir le droit citoyen à la transparence de fonctionnement des algorithmes. Un droit de savoir numérique devrait permettre la radiographie critique, l’audit comme dit Dominique Cardon, des algorithmes.

  1. Briser les silos et élargir le débat à d’autres acteurs.

Nonobstant les difficultés évoquées dans les paragraphes précédents, il y a lieu de noter un changement dans les rapports de force, induit notamment par la montée en puissance de la société civile qui exige que l’on rende des comptes, et la baisse inquiétante de la confiance dans les institutions traditionnelles, en ce compris les entreprises privéesxvi.

Le besoin de réviser nos modes de vie vers plus de soutenabilité, discutée depuis le sommet de Rio en 1992, a été au centre des préoccupations d’un nombre certes faible, mais grandissant d’acteurs économiques, dont nombre d’industriels, qui ont décidé d’intégrer dans la stratégie de leur entreprise les principes du développement durable mis au point par l’ONUxvii.

Cette action s’est concrétisée de différentes manières, les principes n’étant pas directement transposables à des acteurs ayant pour vocation de faire du profit. L’une d’entre elle a consisté à investiguer de manière approfondie la notion d’innovation responsable, notamment à la suite de la décision de la CE d’incorporer des critères dits de « Responsible Research and Innovation » dans le programme Horizon2020.  En se basant sur cette expérience, le document ci-joint Commentaires détaillés sur les documents publiés le 19 février 2020  montre toute la richesse du débat autour de ces enjeux majeurs, et une autre compréhension de réalités complexes, quand on fait appel à des acteurs de terrain expérimentés.

Conclusion.

L’AEPL situe ce débat sur la sécurité des systèmes dans une opportunité réflexive plus large de la finalité de l’innovation technologique au sens de sa contribution au bien-être et au progrès de l’humanité. Ce progrès doit être indexé sur une croissance de l’être et non de l’avoir, en harmonie avec les interdépendances terrestres et sociales et donc axé sur le long terme. Aussi, l’AEPL considère que cette initiative réglementaire doit s’inscrire dans une dynamique démocratique sur la nature souhaitable des innovations.

Le principe de précaution assorti du principe de proportion constitue certainement une des clés pour aborder correctement une innovation que l’on souhaite viablexviii.

À cette fin, nous appellons les autorités européennes à travailler avec une palette large des acteurs de terrain, à bâtir des ponts entre les différentes composantes de la société, avec les entreprises, les États, la société civile, les universités et avec les investisseurs qui pratiquent la finance soutenable.

Ainsi, l’AEPL engage les autorités européennes à mobiliser les outils de l’IA pour exécuter le Green       7 Deal et pour réparer les fractures sociales. D’énormes besoins affectent le développement des capacitations des personnes, des circulations des savoirs, de la culture, du soin sous toutes ses formes, de développement des services publics et d’accès de toutes et de tous à ces services. Si l’Union veut accroître son indépendance technologique, elle peut le faire autour de l’exécution d’un programme de réalisations communes et de développement des outils ad hoc. Autrement dit, concevoir les outils de l’intelligence commune.

C’est sur base d’un tel projet démocratiquement défini que se posent les questions, elles aussi démocratiques, quelles données capter, par qui, à quelles fins, soumises à quel traitement, pour quel apport au débat de choix sociétaux… De telles données et métadonnées seraient dès lors traitées comme des biens communs.

Juin 2020

  • Alain Supiot, La gouvernance par les nombres, 2015.
  • Par exemple, le lobbying du patronat français, Raphaëlle Besse Desmoulières, Jean-Michel Bezat, Cédric Pietralunga, Nabil Wakim, Climat: le patronat s’active pour infléchir les normes, Le Monde, 22 avril 2020.
  • Par exemple pour la France, Service Planète, Le Monde, 9 juin 2018, ou Stéphane Mandard, Lubrizol: les contrôles affaiblis des sites à risques, Id., 5 octobre 2019.
  • Par exemple, Stéphane Mandard, Lubrizol : un rapport accablant pour les entreprises sous-traitantes, Le Monde, 23 octobre 2019.
  • Ainsi, en matière de pollution de l’air, en 2018, la Cour des Comptes européenne estimait que « La santé des citoyens européens reste insuffisamment protégée ». Elle recommandait à la Commission d’adopter des limites plus ” strictes “ (Le Monde, 12 septembre 2018).
  • En l’occurrence le Forum européen du risque (European Risk Forum, ERF), plate-forme de lobbying pour les entreprises des secteurs de la chimie, du tabac et des combustibles fossiles.
  • Par exemple, Jean-Marc Lévy-Leblond, Rien ne garantit qu’une civilisation entretienne une activité scientifique, propos recueillis par David Larousserie, Le Monde, 18 mars 20.
  • Un retard tel que celui pris dans le processus censé réglementer les perturbateurs endocriniens, qui a entraîné la condamnation par la Cour européenne, discrédite la Commission.
  • Pour s’en convaincre, on se renseignera sur les 25 discussions entre Commission et États membres de 2013 à 2019 concernant les néonicotinoïdes tueurs d’abeilles. Voir, par exemple, Le Monde, 22 décembre 2018.
  • Voir, par exemple, le travail de Corporate Europe Observatory qui dénonce les collusions entre les lobbies et les décideurs européens.
  • notamment le papier de David Demortain, sociologue à l’INRA, au sein du Laboratoire interdisciplinaire sciences innovations sociétés, Le Monde, 07 février 2018.
  • Faut-il rappeler l’affaire de l’institut allemand BfR qui a recopié, souvent mot pour mot, le dossier 8 d’homologation déposé par les industriels en matière d’évaluation du glyphosate (cf. Le Monde, 16 janvier 2019) ?
  • Stéphane Horel, Glyphosate : une victoire pour la transparence, Le Monde, 10-11 mars 2019.
  • les moyens mis en œuvre pour la défense du glyphosate (Stéphane Foucart et Stéphane Horel, Monsanto a fiché près de 1500 personnes en Europe, Le Monde, 8-9 septembre 2019).
  • https://edelman.com/trustbarometer
  • https://www.wbcsd.org/Overview/NewsInsights/General/News/RealizingsystemstransformationWBCSDembarkingonarefreshofitslandmarkVision2050
  • https://www.greenfacts.org/pole3pdf, https://www.youtube.com/watch?v=PZmNZi8bon8

 ix Cf. par exemple Stéphane Foucart, Liaisons troubles entre recherche publique et agrochimie, LM, 18 juin 2018.

fr_FRFrançais