{"id":872,"date":"2024-01-18T09:58:53","date_gmt":"2024-01-18T08:58:53","guid":{"rendered":"https:\/\/aepl.eu\/?p=872"},"modified":"2024-04-04T10:11:15","modified_gmt":"2024-04-04T08:11:15","slug":"un-primer-derecho-europeo-sobre-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/aepl.eu\/es\/un-primer-derecho-europeo-sobre-inteligencia-artificial\/","title":{"rendered":"Una primicia mundial: la ley europea sobre Inteligencia Artificial"},"content":{"rendered":"<p>Pronto entrar\u00e1 en vigor la \"Ley de Inteligencia Artificial\" o \"Reglamento de Inteligencia Artificial\", que proteger\u00e1 a los ciudadanos de la UE de los posibles excesos de la IA al tiempo que otorgar\u00e1 a la UE un papel principal en la industria mundial de la IA.<\/p>\n<p>Tras varios meses de negociaciones <u>acuerdo pol\u00edtico<\/u>os colegisladores europeos (Parlamento y Consejo) llegaron a un acuerdo el 9 de diciembre de 2023, allanando el camino para una votaci\u00f3n final.<\/p>\n<p>Esto es lo que la Presidenta de la Comisi\u00f3n Europea, Ursula von der Leyen, tiene que decir al respecto:<\/p>\n<p>\"La inteligencia artificial ya est\u00e1 cambiando nuestra vida cotidiana. Y esto es s\u00f3lo el principio. La IA utilizada de forma inteligente y extensiva promete beneficios considerables para nuestra econom\u00eda y nuestra sociedad. Por eso acojo con gran satisfacci\u00f3n el acuerdo pol\u00edtico alcanzado hoy por el Parlamento Europeo y el Consejo sobre el Reglamento relativo a la inteligencia artificial. Este Reglamento europeo es el primer marco jur\u00eddico completo para la inteligencia artificial en el mundo. Es, por tanto, un momento hist\u00f3rico. El Reglamento sobre IA introduce los valores europeos en una nueva era. Al centrar la regulaci\u00f3n en riesgos identificables, el acuerdo alcanzado hoy promover\u00e1 la innovaci\u00f3n responsable en Europa. Al garantizar la seguridad y los derechos fundamentales de los ciudadanos y las empresas, el Reglamento sobre IA apoyar\u00e1 el desarrollo, despliegue y adopci\u00f3n de una IA fiable en la UE. Nuestro Reglamento sobre IA contribuir\u00e1 sustancialmente al desarrollo de normas y principios mundiales para una IA centrada en el ser humano.\"<\/p>\n<p>Desde hace cuatro a\u00f1os, el Foro Europeo de Masones cuenta con un grupo de trabajo acreditado ante la Comisi\u00f3n y el Parlamento para contribuir al desarrollo del futuro AI-ACT.<\/p>\n<p>He aqu\u00ed las principales etapas del proceso legislativo:<\/p>\n<p>Tras la publicaci\u00f3n de la Estrategia Europea sobre Inteligencia Artificial en 2018 y despu\u00e9s de una amplia consulta a las partes interesadas, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial elabor\u00f3 unas Directrices para una IA digna de confianza en 2019, as\u00ed como una Lista de Evaluaci\u00f3n para una IA digna de confianza en 2020. Paralelamente, el primer plan coordinado sobre IA se public\u00f3 en diciembre de 2018 como parte de un compromiso conjunto con los Estados miembros.<\/p>\n<p>El Libro Blanco sobre la IA de la Comisi\u00f3n, publicado en 2020, estableci\u00f3 una visi\u00f3n clara de la IA en Europa: un ecosistema de excelencia y confianza, que sienta las bases del acuerdo pol\u00edtico alcanzado hoy. La consulta p\u00fablica sobre el Libro Blanco de la IA atrajo numerosas contribuciones de todo el mundo. El Libro Blanco iba acompa\u00f1ado de un \"Informe sobre las implicaciones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la rob\u00f3tica\", en el que se llegaba a la conclusi\u00f3n de que la legislaci\u00f3n actual sobre seguridad de los productos presenta una serie de lagunas que deben colmarse, en particular en la Directiva sobre m\u00e1quinas.<\/p>\n<p>Los principios rectores de AI-ACT son los siguientes:<\/p>\n<p>Las nuevas normas, basadas en una definici\u00f3n de IA preparada para el futuro, ser\u00e1n directa e id\u00e9nticamente aplicables en todos los Estados miembros. Siguen un planteamiento basado en el riesgo:<\/p>\n<p><u>Riesgo m\u00ednimo <\/u>La gran mayor\u00eda de los sistemas de IA entran en esta categor\u00eda. Las aplicaciones de riesgo m\u00ednimo, como los sistemas de recomendaci\u00f3n o los filtros de spam basados en IA, estar\u00e1n exentas de cualquier obligaci\u00f3n porque suponen un riesgo escaso o nulo para los derechos o la seguridad de los ciudadanos. Sin embargo, las empresas podr\u00e1n comprometerse voluntariamente a adoptar c\u00f3digos de conducta adicionales para estos sistemas de IA.<\/p>\n<p><u>Alto riesgo <\/u>Requisitos estrictos: los sistemas de IA considerados de alto riesgo tendr\u00e1n que cumplir requisitos estrictos, incluidos sistemas de mitigaci\u00f3n de riesgos; calidad de los conjuntos de datos utilizados; registro de actividades; documentaci\u00f3n detallada; suministro de informaci\u00f3n clara al usuario; control humano; y un alto nivel de rendimiento en t\u00e9rminos de solidez, precisi\u00f3n y ciberseguridad. Los \"sandboxes\" reguladores facilitar\u00e1n la innovaci\u00f3n responsable y el desarrollo de sistemas de IA que cumplan estos requisitos.<\/p>\n<p>Los sistemas de IA de alto riesgo incluyen, por ejemplo, determinadas infraestructuras cr\u00edticas en los sectores del agua, el gas y la electricidad; dispositivos m\u00e9dicos; sistemas que determinan el acceso a instituciones educativas o se utilizan con fines de reclutamiento, o determinados sistemas utilizados en la vigilancia policial, el control de fronteras, la administraci\u00f3n de justicia y los procesos democr\u00e1ticos. Adem\u00e1s, los sistemas biom\u00e9tricos de identificaci\u00f3n, categorizaci\u00f3n y reconocimiento de emociones tambi\u00e9n se consideran de alto riesgo.<\/p>\n<p><u>Riesgo inaceptable <\/u>Se prohibir\u00e1n los sistemas de IA que se consideren una amenaza clara para los derechos fundamentales de las personas. Entre ellos se incluyen los sistemas o aplicaciones de IA que manipulan el comportamiento humano para privar a los usuarios de su libre albedr\u00edo, como los juguetes que utilizan la asistencia por voz para incitar a los menores a comportarse de forma peligrosa, o los sistemas que permiten la calificaci\u00f3n social por parte de Estados o empresas, y determinadas aplicaciones policiales predictivas. Adem\u00e1s, se prohibir\u00e1n determinados usos de los sistemas biom\u00e9tricos, como los sistemas de reconocimiento emocional utilizados en el lugar de trabajo y ciertos sistemas de categorizaci\u00f3n de personas o de identificaci\u00f3n biom\u00e9trica a distancia en tiempo real con fines policiales en zonas accesibles al p\u00fablico.<\/p>\n<p><u>Obligaciones espec\u00edficas de transparencia :<\/u> al utilizar sistemas de IA como los chatbots, los usuarios deben ser conscientes de que est\u00e1n interactuando con una m\u00e1quina. Los v\u00eddeos ultrarrealistas y otros contenidos generados por IA tendr\u00e1n que se\u00f1alarse como tales, y habr\u00e1 que informar a los usuarios del uso de sistemas de categorizaci\u00f3n biom\u00e9trica o de reconocimiento de emociones. Adem\u00e1s, se exigir\u00e1 a los proveedores que dise\u00f1en sistemas para que las im\u00e1genes, el texto y los contenidos de audio y v\u00eddeo generados sint\u00e9ticamente se marquen en un formato legible por m\u00e1quina y se detecte su naturaleza artificial o manipulada.<\/p>\n<p><u>El Reglamento sobre IA introduce normas espec\u00edficas aplicables a los modelos de IA de prop\u00f3sito general<\/u>Esto garantizar\u00e1 la transparencia en toda la cadena de valor. Para los modelos muy potentes que puedan presentar riesgos sist\u00e9micos, se impondr\u00e1n obligaciones vinculantes adicionales en materia de gesti\u00f3n de riesgos y seguimiento de incidentes graves, evaluaci\u00f3n de modelos y pruebas contradictorias. Estas nuevas obligaciones se aplicar\u00e1n mediante c\u00f3digos de buenas pr\u00e1cticas elaborados por la industria, la comunidad cient\u00edfica, la sociedad civil y otras partes interesadas, en colaboraci\u00f3n con la Comisi\u00f3n.<\/p>\n<p><u>En materia de gobernanza<\/u>A escala europea, las autoridades nacionales competentes en materia de vigilancia del mercado supervisar\u00e1n la aplicaci\u00f3n de las nuevas normas a escala nacional, mientras que la coordinaci\u00f3n a escala europea correr\u00e1 a cargo de una Oficina Europea de IA de nueva creaci\u00f3n en el seno de la Comisi\u00f3n Europea. Esta nueva oficina de IA tambi\u00e9n supervisar\u00e1 la aplicaci\u00f3n y el cumplimiento de las nuevas normas sobre modelos de IA de prop\u00f3sito general. Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de la IA ser\u00e1 el primer organismo del mundo en aplicar normas vinculantes sobre IA, y se espera que se convierta en una referencia internacional. En el caso de los modelos de prop\u00f3sito general, un grupo cient\u00edfico de expertos independientes desempe\u00f1ar\u00e1 un papel central al emitir advertencias sobre riesgos sist\u00e9micos y contribuir a la clasificaci\u00f3n y comprobaci\u00f3n de los modelos.<\/p>\n<p>Se prev\u00e9n fuertes multas.<\/p>\n<p>Las empresas que incumplan las normas ser\u00e1n multadas. Las multas variar\u00e1n en funci\u00f3n de las infracciones cometidas: 35 millones de euros o 7 % del volumen de negocios anual mundial (la cifra m\u00e1s alta) por infracciones relacionadas con aplicaciones de IA prohibidas; 15 millones de euros o 3 % del volumen de negocios anual mundial por incumplimiento de otras obligaciones; y 7,5 millones de euros o 1,5 % del volumen de negocios anual mundial por facilitar informaci\u00f3n inexacta. Se establecen l\u00edmites m\u00e1s proporcionados para las multas administrativas que se impondr\u00e1n a las PYME y a las empresas de nueva creaci\u00f3n por incumplimiento del Reglamento sobre IA.<\/p>\n<p>Pr\u00f3ximos pasos.<\/p>\n<p>El acuerdo pol\u00edtico, que ahora deben aprobar formalmente el Parlamento Europeo y el Consejo, entrar\u00e1 en vigor 20 d\u00edas despu\u00e9s de su publicaci\u00f3n en el Diario Oficial. El Reglamento sobre IA entrar\u00e1 entonces en vigor dos a\u00f1os despu\u00e9s de su entrada en vigor, con excepci\u00f3n de algunas disposiciones espec\u00edficas: las prohibiciones se aplicar\u00e1n a los seis meses, mientras que las normas sobre IA de uso general se aplicar\u00e1n a los 12 meses.<\/p>\n<p>Para cubrir el periodo transitorio antes de que el Reglamento sea de aplicaci\u00f3n general, la Comisi\u00f3n pondr\u00e1 en marcha un Pacto por la IA. En \u00e9l se reunir\u00e1n desarrolladores de IA de Europa y de todo el mundo que se comprometan a aplicar, de forma voluntaria, las obligaciones clave del Reglamento sobre IA antes de los plazos fijados por el Reglamento.<\/p>\n<p>Para promover normas fiables sobre IA a nivel internacional, la Uni\u00f3n Europea seguir\u00e1 trabajando en foros como el G7, la OCDE, el Consejo de Europa, el G20 y las Naciones Unidas. Recientemente, hemos respaldado el acuerdo alcanzado por los l\u00edderes del G7 en el Proceso de Hiroshima para la Inteligencia Artificial sobre los principios rectores internacionales y un c\u00f3digo de conducta voluntario para los sistemas avanzados de IA.<\/p>\n<p>Jo\u00ebl De Decker<\/p>\n<p><u>Referencias<\/u><\/p>\n<p>Varios comunicados de prensa publicados por la Comisi\u00f3n Europea<\/p>\n<p>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>Pronto entrar\u00e1 en vigor la \"Ley de Inteligencia Artificial\" o \"Reglamento de Inteligencia Artificial\", que proteger\u00e1 a los ciudadanos de la UE de los posibles excesos de la IA al tiempo que otorgar\u00e1 a la UE un papel principal en la industria mundial de la IA. Tras varios meses de...<\/p>","protected":false},"author":2,"featured_media":873,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[9],"tags":[],"class_list":["post-872","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-info-lettres"],"acf":[],"_links":{"self":[{"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/posts\/872","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/comments?post=872"}],"version-history":[{"count":0,"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/posts\/872\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/media\/873"}],"wp:attachment":[{"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/media?parent=872"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/categories?post=872"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aepl.eu\/es\/wp-json\/wp\/v2\/tags?post=872"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}