AEPL

Una prima mondiale: la legge europea sull'intelligenza artificiale

Pubblicato il 18/01/2024

L’« Artificial Intelligence ACT » ou le « Règlement sur l’Intelligence Artificielle » sera bientôt d’application, préservant les citoyens de l’Union Européenne des excès possibles de l’IA tout en donnant à l’UE une place importante dans l’industrie mondiale de l’IA.

Après plusieurs mois de négociations un accord politique est en effet intervenu le 9 décembre 2023 entre les co-législateurs (Parlement et Conseil UE) européens, ouvrant la voie à un vote final.

Voici ce qu’en dit la Présidente de la Commission Européenne Mme Ursula von der Leyen :

« L’intelligence artificielle est déjà en train de modifier notre quotidien. Et ce n’est qu’un début. Une IA utilisée de manière judicieuse et étendue promet des avantages considérables à notre économie et à notre société. C’est pourquoi je me réjouis vivement de l’accord politique sur le règlement concernant l’intelligence artificielle auquel le Parlement européen et le Conseil sont parvenus ce jour. Ce règlement européen est le tout premier cadre juridique complet en matière d’intelligence artificielle dans le monde. Il s’agit donc d’un moment historique. Le règlement concernant l’IA transpose les valeurs européennes dans une ère nouvelle. En axant la réglementation sur les risques identifiables, l’accord dégagé ce jour favorisera l’innovation responsable en Europe. En garantissant la sécurité et les droits fondamentaux des citoyens et des entreprises, le règlement concernant l’IA concourra au développement, au déploiement et à l’adoption d’une IA digne de confiance dans l’UE. Notre règlement concernant l’IA apportera une contribution substantielle à l’élaboration de règles et de principes mondiaux pour une IA centrée sur l’humain. »

Depuis quatre ans le Forum Européen de Francs-Maçons a un groupe de travail qui est accrédité auprès de la Commission et du Parlement afin de contribuer à l’élaboration du futur AI-ACT.

Voici les principales étapes du processus législatif :

À la suite de la publication de la stratégie européenne en matière d’intelligence artificielle en 2018 et après une large consultation des parties prenantes, le groupe d’experts de haut niveau sur l’intelligence artificielle a élaboré des lignes directrices pour une IA digne de confiance en 2019, ainsi qu’une liste d’évaluation pour une IA digne de confiance en 2020. Parallèlement, le premier plan coordonné sur l’IA a été publié en décembre 2018 dans le cadre d’un engagement commun avec les États membres.

Le livre blanc de la Commission sur l’IA, publié en 2020, définissait une vision claire de l’IA en Europe: un écosystème d’excellence et de confiance, qui jette les bases de l’accord politique obtenu ce jour. La consultation publique relative au livre blanc sur l’IA a suscité de nombreuses contributions provenant du monde entier. Le livre blanc était accompagné d’un « rapport sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité et la responsabilité », qui concluait que la législation actuelle sur la sécurité des produits présente un certain nombre de lacunes qu’il convient de combler, notamment dans la directive « Machines ».

Les principes directeurs de l’AI-ACT se présentent comme suit :

Les nouvelles règles, fondées sur une définition de l’IA à l’épreuve du temps, seront applicables directement et à l’identique dans tous les États membres. Elles suivent une approche fondée sur les risques :

Risque minime : la grande majorité des systèmes d’IA relèvent de cette catégorie. Les applications à risque minime, telles que les systèmes de recommandation ou les filtres anti-spam reposant sur l’IA, seront exemptées de toute obligation car elles ne présentent qu’un risque minime ou nul pour les droits ou la sécurité des citoyens. Les entreprises pourront néanmoins, de manière volontaire, s’engager à adopter des codes de conduite supplémentaires pour ces systèmes d’IA.

Risque élevé : les systèmes d’IA considérés comme à haut risque devront respecter des exigences strictes, notamment en ce qui concerne les systèmes d’atténuation des risques; la qualité des ensembles de données utilisés, l’enregistrement des activités; la documentation détaillée; la fourniture d’informations claires à l’utilisateur; le contrôle humain ainsi qu’un niveau élevé de performances en matière de robustesse, d’exactitude et de cybersécurité. Des bacs à sable réglementaires faciliteront l’innovation responsable et la mise au point de systèmes d’IA conformes à ces exigences.

Parmi les systèmes d’IA à haut risque figurent, par exemple, certaines infrastructures critiques dans les secteurs de l’eau, du gaz et de l’électricité ; les dispositifs médicaux ; les systèmes qui permettent de déterminer l’accès à des établissements d’enseignement ou qui sont utilisés à des fins de recrutement, ou encore certains systèmes employés dans les domaines du maintien de l’ordre, du contrôle des frontières, de l’administration de la justice et des processus démocratiques. En outre, les systèmes biométriques d’identification, de catégorisation et de reconnaissance des émotions sont également considérés comme présentant un risque élevé.

Risque inacceptable : les systèmes d’IA considérés comme une menace évidente pour les droits fondamentaux des personnes seront interdits. Il s’agit notamment des systèmes ou applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre, tels que les jouets qui utilisent une assistance vocale incitant des mineurs à avoir un comportement dangereux, ou des systèmes qui permettent la notation sociale par les États ou les entreprises, et de certaines applications de police prédictive. En outre, certaines utilisations des systèmes biométriques seront interdites, par exemple les systèmes de reconnaissance des émotions utilisés sur le lieu de travail et certains systèmes de catégorisation des personnes ou d’identification biométrique à distance en temps réel à des fins répressives dans des espaces accessibles au public.

Obligations spécifiques en matière de transparence : lorsqu’ils utilisent des systèmes d’IA tels que des dialogueurs, les utilisateurs devraient avoir conscience qu’ils interagissent avec une machine. Les trucages vidéo ultraréalistes et les autres contenus générés par IA devront être signalés comme tels, et les utilisateurs devront être informés de l’utilisation de systèmes biométriques de catégorisation ou de reconnaissance des émotions. En outre, les fournisseurs seront tenus de concevoir des systèmes de telle façon que les images, textes, contenus audio et vidéo à caractère synthétique fassent l’objet d’un marquage dans un format lisible par machine et que leur nature de contenus générés ou manipulés artificiellement soit détectable.

Le règlement concernant l’IA introduit des règles spécifiques applicables aux modèles d’IA à usage général, qui garantiront la transparence tout au long de la chaîne de valeur. Pour les modèles très puissants susceptibles de présenter des risques systémiques, des obligations contraignantes supplémentaires seront imposées en ce qui concerne la gestion des risques et le suivi des incidents graves, la réalisation d’évaluations des modèles et de tests contradictoires (adversarial testing). Ces nouvelles obligations seront mises en œuvre au moyen de codes de bonnes pratiques élaborés par le secteur, la communauté scientifique, la société civile et d’autres parties prenantes, en collaboration avec la Commission.

En ce qui concerne la gouvernance, les autorités nationales compétentes de surveillance du marché superviseront la mise en œuvre des nouvelles règles à l’échelle nationale, tandis que la coordination au niveau européen sera assurée par un bureau européen de l’IA nouvellement créé au sein de la Commission européenne. Ce nouveau bureau de l’IA supervisera également la mise en œuvre des nouvelles règles relatives aux modèles d’IA à usage général et le contrôle de leur application. Avec les autorités nationales de surveillance du marché, le bureau de l’IA sera le premier organisme dans le monde à faire respecter des règles contraignantes en matière d’IA ; de ce fait, il devrait devenir un élément de référence à l’échelle internationale. Pour les modèles à usage général, un groupe scientifique d’experts indépendants jouera un rôle central en émettant des signalements sur les risques systémiques et en contribuant à la classification et au test des modèles.

De lourdes amendes sont prévues.

Les entreprises non respectueuses des règles se verront infliger une amende. Le montant des amendes varierait en fonction des infractions commises : 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial (le montant le plus élevé étant retenu) pour les violations relatives aux applications d’IA interdites ; 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial pour manquement aux autres obligations prévues et 7,5 millions d’euros ou 1,5 % du chiffre d’affaires annuel mondial pour fourniture d’informations inexactes. Des plafonds plus proportionnés sont prévus pour les amendes administratives qui seront infligées aux PME et aux start-ups en cas de non-respect du règlement concernant l’IA.

Prochaines étapes.

L’accord politique, que le Parlement européen et le Conseil doivent à présent formellement approuver, entrera en vigueur 20 jours après sa publication au Journal officiel. Puis le règlement concernant l’IA entrera en application deux ans après son entrée en vigueur, à l’exception de certaines dispositions particulières : les interdictions s’appliqueront déjà après six mois, tandis que les règles relatives à l’IA à usage général s’appliqueront après 12 mois.

Afin de couvrir la période transitoire qui précède la date à partir de laquelle le règlement sera d’application générale, la Commission lancera un pacte sur l’IA. Celui-ci réunira des développeurs d’IA d’Europe et du monde entier qui s’engagent à mettre en œuvre, de manière volontaire, les obligations essentielles prévues par le règlement concernant l’IA avant les délais fixés par ce dernier.

Afin de promouvoir des règles relatives à une IA digne de confiance sur le plan international, l’Union européenne continuera d’œuvrer dans des enceintes telles que le G7, l’OCDE, le Conseil de l’Europe, le G20 et les Nations unies. Tout récemment, nous avons souscrit à l’accord auquel les dirigeants du G7 sont parvenus dans le cadre du processus d’Hiroshima pour l’intelligence artificielle et qui porte sur des principes directeurs internationaux et sur un code de conduite volontaire, applicables aux systèmes d’IA avancés.

Joël De Decker

Références

Divers communiqués publiés par la Commission Européenne

 

Prossima notizia:
Le Parlement Européen donne la parole à l'AEPL

Pubblicato il 16/02/2024

it_ITItaliano