{"id":872,"date":"2024-01-18T09:58:53","date_gmt":"2024-01-18T08:58:53","guid":{"rendered":"https:\/\/aepl.eu\/?p=872"},"modified":"2024-04-04T10:11:15","modified_gmt":"2024-04-04T08:11:15","slug":"free-disposition-of-self-and-womens-body-autonomy-3","status":"publish","type":"post","link":"https:\/\/aepl.eu\/en\/free-disposition-of-self-and-womens-body-autonomy-3\/","title":{"rendered":"A world first: the European law on Artificial Intelligence"},"content":{"rendered":"<p>The \"Artificial Intelligence ACT\" or \"Artificial Intelligence Regulation\" will soon be in force, protecting EU citizens from the potential excesses of AI while giving the EU a major role in the global AI industry.<\/p>\n<p>After several months of negotiations a <u>political agreement<\/u>he European co-legislators (Parliament and Council) reached an agreement on 9 December 2023, paving the way for a final vote.<\/p>\n<p>Here's what the President of the European Commission, Ursula von der Leyen, has to say about it:<\/p>\n<p>\u00ab L&rsquo;intelligence artificielle est d\u00e9j\u00e0 en train de modifier notre quotidien. Et ce n&rsquo;est qu&rsquo;un d\u00e9but. Une IA utilis\u00e9e de mani\u00e8re judicieuse et \u00e9tendue promet des avantages consid\u00e9rables \u00e0 notre \u00e9conomie et \u00e0 notre soci\u00e9t\u00e9. C&rsquo;est pourquoi je me r\u00e9jouis vivement de l&rsquo;accord politique sur le r\u00e8glement concernant l&rsquo;intelligence artificielle auquel le Parlement europ\u00e9en et le Conseil sont parvenus ce jour. Ce r\u00e8glement europ\u00e9en est le tout premier cadre juridique complet en mati\u00e8re d&rsquo;intelligence artificielle dans le monde. Il s&rsquo;agit donc d&rsquo;un moment historique. Le r\u00e8glement concernant l&rsquo;IA transpose les valeurs europ\u00e9ennes dans une \u00e8re nouvelle. En axant la r\u00e9glementation sur les risques identifiables, l&rsquo;accord d\u00e9gag\u00e9 ce jour favorisera l&rsquo;innovation responsable en Europe. En garantissant la s\u00e9curit\u00e9 et les droits fondamentaux des citoyens et des entreprises, le r\u00e8glement concernant l&rsquo;IA concourra au d\u00e9veloppement, au d\u00e9ploiement et \u00e0 l&rsquo;adoption d&rsquo;une IA digne de confiance dans l&rsquo;UE. Notre r\u00e8glement concernant l&rsquo;IA apportera une contribution substantielle \u00e0 l&rsquo;\u00e9laboration de r\u00e8gles et de principes mondiaux pour une IA centr\u00e9e sur l&rsquo;humain. \u00bb<\/p>\n<p>For the past four years, the European Forum of Freemasons has had a working group accredited to the Commission and Parliament to contribute to the development of the future AI-ACT.<\/p>\n<p>Here are the main stages in the legislative process:<\/p>\n<p>\u00c0 la suite de la publication de la strat\u00e9gie europ\u00e9enne en mati\u00e8re d&rsquo;intelligence artificielle en 2018 et apr\u00e8s une large consultation des parties prenantes, le groupe d&rsquo;experts de haut niveau sur l&rsquo;intelligence artificielle a \u00e9labor\u00e9 des lignes directrices pour une IA digne de confiance en 2019, ainsi qu&rsquo;une liste d&rsquo;\u00e9valuation pour une IA digne de confiance en 2020. Parall\u00e8lement, le premier plan coordonn\u00e9 sur l&rsquo;IA a \u00e9t\u00e9 publi\u00e9 en d\u00e9cembre 2018 dans le cadre d&rsquo;un engagement commun avec les \u00c9tats membres.<\/p>\n<p>Le livre blanc de la Commission sur l&rsquo;IA, publi\u00e9 en 2020, d\u00e9finissait une vision claire de l&rsquo;IA en Europe: un \u00e9cosyst\u00e8me d&rsquo;excellence et de confiance, qui jette les bases de l&rsquo;accord politique obtenu ce jour. La consultation publique relative au livre blanc sur l&rsquo;IA a suscit\u00e9 de nombreuses contributions provenant du monde entier. Le livre blanc \u00e9tait accompagn\u00e9 d&rsquo;un \u00ab rapport sur les cons\u00e9quences de l&rsquo;intelligence artificielle, de l&rsquo;internet des objets et de la robotique sur la s\u00e9curit\u00e9 et la responsabilit\u00e9 \u00bb, qui concluait que la l\u00e9gislation actuelle sur la s\u00e9curit\u00e9 des produits pr\u00e9sente un certain nombre de lacunes qu&rsquo;il convient de combler, notamment dans la directive \u00ab Machines \u00bb.<\/p>\n<p>The guiding principles of AI-ACT are as follows:<\/p>\n<p>Les nouvelles r\u00e8gles, fond\u00e9es sur une d\u00e9finition de l&rsquo;IA \u00e0 l&rsquo;\u00e9preuve du temps, seront applicables directement et \u00e0 l&rsquo;identique dans tous les \u00c9tats membres. Elles suivent une approche fond\u00e9e sur les risques :<\/p>\n<p><u>Minimal risk <\/u>: la grande majorit\u00e9 des syst\u00e8mes d&rsquo;IA rel\u00e8vent de cette cat\u00e9gorie. Les applications \u00e0 risque minime, telles que les syst\u00e8mes de recommandation ou les filtres anti-spam reposant sur l&rsquo;IA, seront exempt\u00e9es de toute obligation car elles ne pr\u00e9sentent qu&rsquo;un risque minime ou nul pour les droits ou la s\u00e9curit\u00e9 des citoyens. Les entreprises pourront n\u00e9anmoins, de mani\u00e8re volontaire, s&rsquo;engager \u00e0 adopter des codes de conduite suppl\u00e9mentaires pour ces syst\u00e8mes d&rsquo;IA.<\/p>\n<p><u>High risk <\/u>: les syst\u00e8mes d&rsquo;IA consid\u00e9r\u00e9s comme \u00e0 haut risque devront respecter des exigences strictes, notamment en ce qui concerne les syst\u00e8mes d&rsquo;att\u00e9nuation des risques; la qualit\u00e9 des ensembles de donn\u00e9es utilis\u00e9s, l&rsquo;enregistrement des activit\u00e9s; la documentation d\u00e9taill\u00e9e; la fourniture d&rsquo;informations claires \u00e0 l&rsquo;utilisateur; le contr\u00f4le humain ainsi qu&rsquo;un niveau \u00e9lev\u00e9 de performances en mati\u00e8re de robustesse, d&rsquo;exactitude et de cybers\u00e9curit\u00e9. Des bacs \u00e0 sable r\u00e9glementaires faciliteront l&rsquo;innovation responsable et la mise au point de syst\u00e8mes d&rsquo;IA conformes \u00e0 ces exigences.<\/p>\n<p>Parmi les syst\u00e8mes d&rsquo;IA \u00e0 haut risque figurent, par exemple, certaines infrastructures critiques dans les secteurs de l&rsquo;eau, du gaz et de l\u2019\u00e9lectricit\u00e9 ; les dispositifs m\u00e9dicaux ; les syst\u00e8mes qui permettent de d\u00e9terminer l&rsquo;acc\u00e8s \u00e0 des \u00e9tablissements d&rsquo;enseignement ou qui sont utilis\u00e9s \u00e0 des fins de recrutement, ou encore certains syst\u00e8mes employ\u00e9s dans les domaines du maintien de l&rsquo;ordre, du contr\u00f4le des fronti\u00e8res, de l&rsquo;administration de la justice et des processus d\u00e9mocratiques. En outre, les syst\u00e8mes biom\u00e9triques d&rsquo;identification, de cat\u00e9gorisation et de reconnaissance des \u00e9motions sont \u00e9galement consid\u00e9r\u00e9s comme pr\u00e9sentant un risque \u00e9lev\u00e9.<\/p>\n<p><u>Unacceptable risk <\/u>: les syst\u00e8mes d&rsquo;IA consid\u00e9r\u00e9s comme une menace \u00e9vidente pour les droits fondamentaux des personnes seront interdits. Il s&rsquo;agit notamment des syst\u00e8mes ou applications d&rsquo;IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre, tels que les jouets qui utilisent une assistance vocale incitant des mineurs \u00e0 avoir un comportement dangereux, ou des syst\u00e8mes qui permettent la notation sociale par les \u00c9tats ou les entreprises, et de certaines applications de police pr\u00e9dictive. En outre, certaines utilisations des syst\u00e8mes biom\u00e9triques seront interdites, par exemple les syst\u00e8mes de reconnaissance des \u00e9motions utilis\u00e9s sur le lieu de travail et certains syst\u00e8mes de cat\u00e9gorisation des personnes ou d&rsquo;identification biom\u00e9trique \u00e0 distance en temps r\u00e9el \u00e0 des fins r\u00e9pressives dans des espaces accessibles au public.<\/p>\n<p><u>Specific transparency obligations :<\/u> lorsqu&rsquo;ils utilisent des syst\u00e8mes d&rsquo;IA tels que des dialogueurs, les utilisateurs devraient avoir conscience qu&rsquo;ils interagissent avec une machine. Les trucages vid\u00e9o ultrar\u00e9alistes et les autres contenus g\u00e9n\u00e9r\u00e9s par IA devront \u00eatre signal\u00e9s comme tels, et les utilisateurs devront \u00eatre inform\u00e9s de l&rsquo;utilisation de syst\u00e8mes biom\u00e9triques de cat\u00e9gorisation ou de reconnaissance des \u00e9motions. En outre, les fournisseurs seront tenus de concevoir des syst\u00e8mes de telle fa\u00e7on que les images, textes, contenus audio et vid\u00e9o \u00e0 caract\u00e8re synth\u00e9tique fassent l&rsquo;objet d&rsquo;un marquage dans un format lisible par machine et que leur nature de contenus g\u00e9n\u00e9r\u00e9s ou manipul\u00e9s artificiellement soit d\u00e9tectable.<\/p>\n<p><u>Le r\u00e8glement concernant l&rsquo;IA introduit des r\u00e8gles sp\u00e9cifiques applicables aux mod\u00e8les d&rsquo;IA \u00e0 usage g\u00e9n\u00e9ral<\/u>, qui garantiront la transparence tout au long de la cha\u00eene de valeur. Pour les mod\u00e8les tr\u00e8s puissants susceptibles de pr\u00e9senter des risques syst\u00e9miques, des obligations contraignantes suppl\u00e9mentaires seront impos\u00e9es en ce qui concerne la gestion des risques et le suivi des incidents graves, la r\u00e9alisation d&rsquo;\u00e9valuations des mod\u00e8les et de tests contradictoires (adversarial testing). Ces nouvelles obligations seront mises en \u0153uvre au moyen de codes de bonnes pratiques \u00e9labor\u00e9s par le secteur, la communaut\u00e9 scientifique, la soci\u00e9t\u00e9 civile et d&rsquo;autres parties prenantes, en collaboration avec la Commission.<\/p>\n<p><u>With regard to governance<\/u>, les autorit\u00e9s nationales comp\u00e9tentes de surveillance du march\u00e9 superviseront la mise en \u0153uvre des nouvelles r\u00e8gles \u00e0 l&rsquo;\u00e9chelle nationale, tandis que la coordination au niveau europ\u00e9en sera assur\u00e9e par un bureau europ\u00e9en de l&rsquo;IA nouvellement cr\u00e9\u00e9 au sein de la Commission europ\u00e9enne. Ce nouveau bureau de l&rsquo;IA supervisera \u00e9galement la mise en \u0153uvre des nouvelles r\u00e8gles relatives aux mod\u00e8les d&rsquo;IA \u00e0 usage g\u00e9n\u00e9ral et le contr\u00f4le de leur application. Avec les autorit\u00e9s nationales de surveillance du march\u00e9, le bureau de l&rsquo;IA sera le premier organisme dans le monde \u00e0 faire respecter des r\u00e8gles contraignantes en mati\u00e8re d&rsquo;IA ; de ce fait, il devrait devenir un \u00e9l\u00e9ment de r\u00e9f\u00e9rence \u00e0 l&rsquo;\u00e9chelle internationale. Pour les mod\u00e8les \u00e0 usage g\u00e9n\u00e9ral, un groupe scientifique d&rsquo;experts ind\u00e9pendants jouera un r\u00f4le central en \u00e9mettant des signalements sur les risques syst\u00e9miques et en contribuant \u00e0 la classification et au test des mod\u00e8les.<\/p>\n<p>Heavy fines are envisaged.<\/p>\n<p>Les entreprises non respectueuses des r\u00e8gles se verront infliger une amende. Le montant des amendes varierait en fonction des infractions commises : 35 millions d&rsquo;euros ou 7 % du chiffre d&rsquo;affaires annuel mondial (le montant le plus \u00e9lev\u00e9 \u00e9tant retenu) pour les violations relatives aux applications d&rsquo;IA interdites ; 15 millions d&rsquo;euros ou 3 % du chiffre d&rsquo;affaires annuel mondial pour manquement aux autres obligations pr\u00e9vues et 7,5 millions d&rsquo;euros ou 1,5 % du chiffre d&rsquo;affaires annuel mondial pour fourniture d&rsquo;informations inexactes. Des plafonds plus proportionn\u00e9s sont pr\u00e9vus pour les amendes administratives qui seront inflig\u00e9es aux PME et aux start-ups en cas de non-respect du r\u00e8glement concernant l&rsquo;IA.<\/p>\n<p>Next steps.<\/p>\n<p>L&rsquo;accord politique, que le Parlement europ\u00e9en et le Conseil doivent \u00e0 pr\u00e9sent formellement approuver, entrera en vigueur 20 jours apr\u00e8s sa publication au Journal officiel. Puis le r\u00e8glement concernant l&rsquo;IA entrera en application deux ans apr\u00e8s son entr\u00e9e en vigueur, \u00e0 l&rsquo;exception de certaines dispositions particuli\u00e8res : les interdictions s&rsquo;appliqueront d\u00e9j\u00e0 apr\u00e8s six mois, tandis que les r\u00e8gles relatives \u00e0 l&rsquo;IA \u00e0 usage g\u00e9n\u00e9ral s&rsquo;appliqueront apr\u00e8s 12 mois.<\/p>\n<p>Afin de couvrir la p\u00e9riode transitoire qui pr\u00e9c\u00e8de la date \u00e0 partir de laquelle le r\u00e8glement sera d&rsquo;application g\u00e9n\u00e9rale, la Commission lancera un pacte sur l&rsquo;IA. Celui-ci r\u00e9unira des d\u00e9veloppeurs d&rsquo;IA d&rsquo;Europe et du monde entier qui s&rsquo;engagent \u00e0 mettre en \u0153uvre, de mani\u00e8re volontaire, les obligations essentielles pr\u00e9vues par le r\u00e8glement concernant l&rsquo;IA avant les d\u00e9lais fix\u00e9s par ce dernier.<\/p>\n<p>Afin de promouvoir des r\u00e8gles relatives \u00e0 une IA digne de confiance sur le plan international, l&rsquo;Union europ\u00e9enne continuera d&rsquo;\u0153uvrer dans des enceintes telles que le G7, l&rsquo;OCDE, le Conseil de l&rsquo;Europe, le G20 et les Nations unies. Tout r\u00e9cemment, nous avons souscrit \u00e0 l&rsquo;accord auquel les dirigeants du G7 sont parvenus dans le cadre du processus d&rsquo;Hiroshima pour l&rsquo;intelligence artificielle et qui porte sur des principes directeurs internationaux et sur un code de conduite volontaire, applicables aux syst\u00e8mes d&rsquo;IA avanc\u00e9s.<\/p>\n<p>Jo\u00ebl De Decker<\/p>\n<p><u>References<\/u><\/p>\n<p>Various press releases published by the European Commission<\/p>\n<p>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>The \"Artificial Intelligence ACT\" or \"Artificial Intelligence Regulation\" will soon be in force, protecting EU citizens from the potential excesses of AI while giving the EU a major role in the global AI industry. After several months of...<\/p>","protected":false},"author":2,"featured_media":873,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[9],"tags":[],"class_list":["post-872","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-info-lettres"],"acf":[],"_links":{"self":[{"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/posts\/872","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/comments?post=872"}],"version-history":[{"count":0,"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/posts\/872\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/media\/873"}],"wp:attachment":[{"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/media?parent=872"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/categories?post=872"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aepl.eu\/en\/wp-json\/wp\/v2\/tags?post=872"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}