Una primicia mundial: la ley europea sobre Inteligencia Artificial
Publicado el 18/01/2024Pronto entrará en vigor la "Ley de Inteligencia Artificial" o "Reglamento de Inteligencia Artificial", que protegerá a los ciudadanos de la UE de los posibles excesos de la IA al tiempo que otorgará a la UE un papel principal en la industria mundial de la IA.
Tras varios meses de negociaciones acuerdo políticoos colegisladores europeos (Parlamento y Consejo) llegaron a un acuerdo el 9 de diciembre de 2023, allanando el camino para una votación final.
Esto es lo que la Presidenta de la Comisión Europea, Ursula von der Leyen, tiene que decir al respecto:
"La inteligencia artificial ya está cambiando nuestra vida cotidiana. Y esto es sólo el principio. La IA utilizada de forma inteligente y extensiva promete beneficios considerables para nuestra economía y nuestra sociedad. Por eso acojo con gran satisfacción el acuerdo político alcanzado hoy por el Parlamento Europeo y el Consejo sobre el Reglamento relativo a la inteligencia artificial. Este Reglamento europeo es el primer marco jurídico completo para la inteligencia artificial en el mundo. Es, por tanto, un momento histórico. El Reglamento sobre IA introduce los valores europeos en una nueva era. Al centrar la regulación en riesgos identificables, el acuerdo alcanzado hoy promoverá la innovación responsable en Europa. Al garantizar la seguridad y los derechos fundamentales de los ciudadanos y las empresas, el Reglamento sobre la IA apoyará el desarrollo, el despliegue y la adopción de una IA fiable en la UE. Nuestro Reglamento sobre IA contribuirá sustancialmente al desarrollo de normas y principios mundiales para una IA centrada en el ser humano."
Desde hace cuatro años, el Foro Europeo de Masones cuenta con un grupo de trabajo acreditado ante la Comisión y el Parlamento para contribuir al desarrollo del futuro AI-ACT.
He aquí las principales etapas del proceso legislativo:
Tras la publicación de la Estrategia Europea sobre Inteligencia Artificial en 2018 y después de una amplia consulta a las partes interesadas, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial elaboró unas Directrices para una IA digna de confianza en 2019, así como una Lista de Evaluación para una IA digna de confianza en 2020. Paralelamente, el primer plan coordinado sobre IA se publicó en diciembre de 2018 como parte de un compromiso conjunto con los Estados miembros.
El Libro Blanco sobre la IA de la Comisión, publicado en 2020, estableció una visión clara de la IA en Europa: un ecosistema de excelencia y confianza, que sienta las bases del acuerdo político alcanzado hoy. La consulta pública sobre el Libro Blanco de la IA atrajo numerosas contribuciones de todo el mundo. El Libro Blanco iba acompañado de un "Informe sobre las implicaciones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de los objetos y la robótica", en el que se llegaba a la conclusión de que la legislación actual sobre seguridad de los productos presenta una serie de lagunas que deben colmarse, en particular en la Directiva sobre máquinas.
Los principios rectores de AI-ACT son los siguientes:
Las nuevas normas, basadas en una definición de la IA preparada para el futuro, serán directa e idénticamente aplicables en todos los Estados miembros. Siguen un planteamiento basado en el riesgo:
Riesgo mínimo La gran mayoría de los sistemas de IA entran en esta categoría. Las aplicaciones de riesgo mínimo, como los sistemas de recomendación o los filtros de spam basados en IA, estarán exentas de cualquier obligación porque presentan poco o ningún riesgo para los derechos o la seguridad de los ciudadanos. Sin embargo, las empresas podrán comprometerse voluntariamente a adoptar códigos de conducta adicionales para estos sistemas de IA.
Alto riesgo Requisitos estrictos: los sistemas de IA considerados de alto riesgo tendrán que cumplir requisitos estrictos, incluidos sistemas de mitigación de riesgos; calidad de los conjuntos de datos utilizados; registro de actividades; documentación detallada; suministro de información clara al usuario; control humano; y un alto nivel de rendimiento en términos de solidez, precisión y ciberseguridad. Los "sandboxes" reguladores facilitarán la innovación responsable y el desarrollo de sistemas de IA que cumplan estos requisitos.
Los sistemas de IA de alto riesgo incluyen, por ejemplo, determinadas infraestructuras críticas en los sectores del agua, el gas y la electricidad; dispositivos médicos; sistemas que determinan el acceso a instituciones educativas o se utilizan con fines de reclutamiento, o determinados sistemas utilizados en la vigilancia policial, el control de fronteras, la administración de justicia y los procesos democráticos. Además, los sistemas biométricos de identificación, categorización y reconocimiento de emociones también se consideran de alto riesgo.
Riesgo inaceptable Se prohibirán los sistemas de IA que se consideren una amenaza clara para los derechos fundamentales de las personas. Entre ellos se incluyen los sistemas o aplicaciones de IA que manipulan el comportamiento humano para privar a los usuarios de su libre albedrío, como los juguetes que utilizan la asistencia por voz para incitar a los menores a comportarse de forma peligrosa, o los sistemas que permiten la calificación social por parte de Estados o empresas, y determinadas aplicaciones policiales predictivas. Además, se prohibirán determinados usos de los sistemas biométricos, como los sistemas de reconocimiento emocional utilizados en el lugar de trabajo y ciertos sistemas de categorización de personas o de identificación biométrica a distancia en tiempo real con fines policiales en zonas accesibles al público.
Obligaciones específicas de transparencia : al utilizar sistemas de IA como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina. Los vídeos ultrarrealistas y otros contenidos generados por IA tendrán que señalarse como tales, y habrá que informar a los usuarios del uso de sistemas de categorización biométrica o de reconocimiento de emociones. Además, se exigirá a los proveedores que diseñen sistemas para que las imágenes, el texto y los contenidos de audio y vídeo generados sintéticamente se marquen en un formato legible por máquina y se detecte su naturaleza artificial o manipulada.
El Reglamento sobre IA introduce normas específicas aplicables a los modelos de IA de propósito generalEsto garantizará la transparencia en toda la cadena de valor. Para los modelos muy potentes que puedan presentar riesgos sistémicos, se impondrán obligaciones vinculantes adicionales en materia de gestión de riesgos y seguimiento de incidentes graves, evaluación de modelos y pruebas contradictorias. Estas nuevas obligaciones se aplicarán mediante códigos de buenas prácticas elaborados por la industria, la comunidad científica, la sociedad civil y otras partes interesadas, en colaboración con la Comisión.
En materia de gobernanzaA escala europea, las autoridades nacionales competentes en materia de vigilancia del mercado supervisarán la aplicación de las nuevas normas a escala nacional, mientras que la coordinación a escala europea correrá a cargo de una Oficina Europea de IA de nueva creación en el seno de la Comisión Europea. Esta nueva oficina de IA también supervisará la aplicación y el cumplimiento de las nuevas normas sobre modelos de IA de propósito general. Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de la IA será el primer organismo del mundo en aplicar normas vinculantes sobre IA, y se espera que se convierta en una referencia internacional. En el caso de los modelos de propósito general, un grupo científico de expertos independientes desempeñará un papel central al emitir advertencias sobre riesgos sistémicos y contribuir a la clasificación y comprobación de los modelos.
Se prevén fuertes multas.
Las empresas que incumplan las normas serán multadas. Las multas variarán en función de las infracciones cometidas: 35 millones de euros o 7 % del volumen de negocios anual mundial (la cifra más alta) por infracciones relacionadas con aplicaciones de IA prohibidas; 15 millones de euros o 3 % del volumen de negocios anual mundial por incumplimiento de otras obligaciones; y 7,5 millones de euros o 1,5 % del volumen de negocios anual mundial por facilitar información inexacta. Se establecen límites más proporcionados para las multas administrativas que se impondrán a las PYME y a las empresas de nueva creación por incumplimiento del Reglamento sobre IA.
Próximos pasos.
El acuerdo político, que ahora deben aprobar formalmente el Parlamento Europeo y el Consejo, entrará en vigor 20 días después de su publicación en el Diario Oficial. El Reglamento sobre IA entrará entonces en vigor dos años después de su entrada en vigor, con excepción de algunas disposiciones específicas: las prohibiciones se aplicarán a los seis meses, mientras que las normas sobre IA de uso general se aplicarán a los 12 meses.
Para cubrir el periodo transitorio antes de que el Reglamento sea de aplicación general, la Comisión pondrá en marcha un Pacto por la IA. En él se reunirán desarrolladores de IA de Europa y de todo el mundo que se comprometan a aplicar, de forma voluntaria, las obligaciones clave del Reglamento sobre IA antes de los plazos fijados por el Reglamento.
Para promover normas fiables sobre IA a nivel internacional, la Unión Europea seguirá trabajando en foros como el G7, la OCDE, el Consejo de Europa, el G20 y las Naciones Unidas. Recientemente, hemos respaldado el acuerdo alcanzado por los líderes del G7 en el Proceso de Hiroshima para la Inteligencia Artificial sobre los principios rectores internacionales y un código de conducta voluntario para los sistemas avanzados de IA.
Joël De Decker
Referencias
Varios comunicados de prensa publicados por la Comisión Europea