AEPL

Informe de la AEPL "Gobernanza de la IA".

Publicado el 15/06/2020

Hacia una mejor gobernanza europea de la Inteligencia Artificial.

La Unión Europea desea :

  • Una IA que dé prioridad a las personas y los ciudadanos;
  • Tecnologías fiables en las que puede confiar;
  • Poner estas tecnologías al servicio de una sociedad democrática, una economía dinámica y sostenible y la transición ecológica.

La AEPL apoya plenamente estos objetivos. Las siguientes sugerencias pretenden contribuir a alcanzarlos.

Basamos estas sugerencias en tres fuentes fundamentales para el funcionamiento de la Unión.

  • En primer lugar, el Tratado de Funcionamiento de la Unión Europea y, en particular, los artículos 8 (eliminación de desigualdades), 9 (cláusula social horizontal), 10 (lucha contra la discriminación), 11 (protección del medio ambiente), 12 (protección de los consumidores), 15, 1 y 3 (principio de gobernanza abierta), 16 (protección de datos personales).
  • En segundo lugar, la Carta de los Derechos Sociales Fundamentales, en particular los artículos 8, 21, 31 (condiciones de trabajo justas y equitativas), 37, 38 y 42.
  • Por último, el Socle Europeo de Derechos Sociales, en particular el principio 10.

Además, la AEPL pide a la Comisión que ponga en práctica las sugerencias del PE sobre la IA, en particular las recomendaciones recogidas en el documento del Parlamento Europeo que figura en el Anexo 1.

La acción de la UE pretende "acelerar el despliegue de la IA". Evidentemente, este despliegue requiere la confianza de los usuarios. Por ejemplo mutatis mutandis la lógica de la Directiva sobre máquinas (1989), elaborada en el contexto de la creación del mercado interior, con el fin de hacer más fiable la libre circulación de mercancías.

Así, el criterio de "confianza" motiva una iniciativa reguladora basada en requisitos de fiabilidad para controlar los riesgos con el fin de proteger a los consumidores y los datos. El objetivo reglamentario parece apuntar a los principales riesgos de los "sistemas de inteligencia artificial de alto riesgo", que exigen "normas claras".

Controlar los riesgos de modo que se genere confianza entre los ciudadanos no es indiferente al contexto pandémico actual. De hecho, el sistema estudiado forma parte de una función esencial del Estado: la protección de los ciudadanos, la toma de decisiones y la protección del medio ambiente. tratamiento comercialización y uso preventivos. Aguas arriba, diseño; aguas abajo, como el RGPDP, protección.      2incluidas las libertades públicas fundamentales.

La pandemia es un trágico recordatorio de que esta protección y cuidado pueden equipararse a las funciones regias del Estado hasta el punto de justificar restricciones sustanciales de las libertades democráticas. No es éste el lugar para zanjar el debate sobre la pertinencia de esta justificación, pero sí para recordar que la protección y el cuidado pertenecen al plano vertical de la res publicael interés general y los valores que no tienen precio y que, por tanto, han de imponerse en el plano horizontal de los intereses particularesi.

Al imponer límites y normas al comercio horizontal, la fuerza pertenece al Estado de Derecho y no a la ley del más fuerte.

La calidad democrática de los procesos de toma de decisiones y de elaboración de normas, la transparencia de estos procesos, la independencia de las autoridades públicas frente a los intereses creados, la coherencia de las acciones con las palabras, los anuncios y los compromisos: todos ellos son requisitos previos para generar confianza entre los ciudadanos.

Con este espíritu, la AEPL le envía las siguientes advertencias y sugerencias en vísperas de la redacción de las disposiciones solicitadas por el Sindicato.

   1. Coraje político: no se puede complacer a todo el mundo

No será fácil para las autoridades europeas consolidar el Estado de Derecho frente a los Estados económicos de facto deseados por los mercados y las oligarquías de la IA.

De hecho, las fuerzas económicas de todos los bandos están presionando para que se vuelva lo más rápidamente posible a la situación de siempre, e incluso para que se pongan entre paréntesis las protecciones públicas -especialmente las medioambientales- en nombre de los imperativos del crecimiento. Por ejemplo, se pide que se pospongan los objetivos climáticos para 2030, se ataca la idea del "Pacto Verde" de la Comisión, varios actores del sector digital vilipendian el RGPDP, la industria aboga por la relajación de las normas nacionales, etcétera.ii

En otras palabras, se requerirá un fuerte compromiso político para garantizar la implantación del sistema, es decir, en el eje vertical del interés general.

  1. Adaptar el sistema a los marcos normativos de la UE.

La posición del sistema en el eje vertical de protección y asistencia exige la adopción de normas "duras" -directiva(s)- frente a normas "blandas". derecho indicativo. De hecho, el efecto de tales normas "blandas" es "abatir" el sistema sobre el eje horizontal de los intereses individuales, en el mejor de los casos moralmente atenuados por las buenas prácticas aplicadas voluntariamente bajo la bandera de la responsabilidad social de las empresas. No se trata aquí de cuestionar la honorabilidad y la importancia de tales prácticas, sino de poner de relieve sus deficiencias en términos de generalización, aplicabilidad, etc. 3 a todo el sector y a la sostenibilidad. El cumplimiento de las buenas prácticas permite la parcialidad y la esporadicidad, que la fiabilidad y la confianza que espera la Comisión no pueden permitir.

¿Necesitamos recordarle los efectos nocivos de la derecho indicativo¿Qué decir del diálogo social, paralizado por los "acuerdos voluntarios" cuando los interlocutores sociales tenían poder para celebrar auténticos convenios colectivos? ¿O los decepcionantes resultados del método abierto de coordinación que ha dado al traste con las esperanzas abiertas por el "proceso" de Luxemburgo en materia de empleo?

Por otro lado, las obligaciones presupuestarias, acompañadas de sanciones, son más fuertes que nunca.

La seguridad de los productos de inteligencia artificial requiere normas tanto más estrictas cuanto que las normas de seguridad tienden a relajarse, ya sea en las normas que regulan las licencias de explotación.iiio en cumplimiento de los requisitos de prevención durante la produccióniv. Esta complacencia parece contradecir las crecientes exigencias ecológicas y de seguridad del público en general.v. Ilustra la eficacia de los grupos de presión y la falta de previsión de varias empresas.

  1. La estrategia de la industria: dominar el tiempo.

La industria quiere mantener el control sobre la naturaleza de las innovaciones y el ritmo al que se introducen en el mercado en un mundo que cuestiona cada vez más la finalidad de las innovaciones y su impacto en el equilibrio de los ecosistemas.

  1. La necesidad de defender el principio de precaución.

En el contexto estratégico descrito, a iniciativa del Foro Europeo del Riesgovila industria ha desarrollado e intenta convencer a las autoridades públicas de que adopten un pseudo principio de innovación (que controla) que compite con la realidad principio de cautela el único existente en derecho. Este pseudoprincipio de innovación se utiliza para justificar todo tipo de retrasos, giros y exenciones más o menos prolongadas de la aplicación legal del principio de precaución. El objetivo es, evidentemente, obtener al menos de facto en el mejor de los casos de jure un principio de innovación que pondría en entredicho el principio de cautela y la normativa. La AEPL no acepta tales maniobras.

    5. Distinguir entre ciencia y tecnociencia.vii

En la misma línea estratégica, algunos sectores confunden regularmente la investigación científica básica con la innovación tecnológica, y la ciencia con la tecnociencia. En nombre de esta confusión, esta última debería beneficiarse de las mismas garantías de libertad (académica si          4 Es sólo investigación fundamental. Esto pasa por alto el hecho de que la libre razón de ser de la investigación fundamental -hacer avanzar el conocimiento- y su misión educativa de utilidad pública la sitúan en el plano vertical del interés general. En cambio, la innovación tecnológica en el plano horizontal de las relaciones comerciales debe ajustarse a las normas del interés general.

Obviamente, la confusión se ve alimentada por la escasa inversión en investigación universitaria (en Bélgica desde finales de los años 70) y por la toma de las riendas financieras por parte de la industria.

  1. Aprender de la experiencia en otros ámbitos de la innovación tecnológica.

En particular, el sector agroquímico revela una tipología muy completa de tácticas de ahorro de tiempo, control y desviación: retrasar la aplicación de la normativa, etc.viiipara poner en duda estudios científicos inconvenientes, desacreditar a los autores de dichos estudios, burlar a los políticos llamados a tomar decisiones, financiar investigaciones serviles, etc.ixEl objetivo es promover los resultados de la propia empresa, atraer y controlar a científicos de instituciones públicas y universidades, etc.

Incluso si, al final, el resultado no es el esperado para una autorización concreta, el tiempo ahorrado permite desarrollar otras producciones que también tendrán tiempo de sobra para arraigar antes de ser posiblemente descartadas en un futuro más o menos lejano.

El llamado "principio" de innovación adquiere así todo su significado, de modo que la industria siempre tiene el control sobre el tiempo. No le interesa el largo plazo, sino el corto. la sucesión de mandatos cortos el nivel horizontal de los mercados, de las innovaciones que generan beneficios antes de ser eventualmente rechazadas por el nivel vertical del interés general. El principio de innovación debe preceder siempre al de precaución, lo que es lógico si ambos principios se sitúan en pie de igualdad. Con este fin, la industria desea que se reconozca la innovación. en principio. En ese momento, el Estado de Derecho es sustituido por el imperio de la ley, al menos durante el tiempo necesario para obtener beneficios. AEPL no puede ni quiere formar parte de ese escenario.

En este sentido, nos gustaría destacar los efectos perversos de dos procedimientos de la UE que no deberían repetirse en el ámbito de la IA.

PrimoEn agroquímicos, el "procedimiento de confirmación de datos", que autoriza la comercialización supeditada a la obligación del fabricante de completar la documentación de seguridad del producto en el futuro.

Segundolos repetidos procedimientos de diálogo a tres bandas (Consejo, Comisión, Parlamento) sobre el mismo tema en caso de desacuerdo en el Consejo. Estos procedimientos sucesivos sólo sirven para ahorrar tiempo a la industria y para animar a la Comisión, en cada ronda de negociaciones, a suavizar sus niveles de protección propuestos con la esperanza de alcanzar un acuerdo en el Consejo.x. Depende de             5 Parlamento.

Por último, la certificación de los productos que entrañan cierto nivel de riesgo no puede confiarse al propio fabricante: en este caso es necesaria la certificación de la conformidad del producto con los requisitos esenciales de seguridad de la UE por parte de un tercero. El nivel de riesgo, la cualificación de los terceros certificadores y su independencia deben ser objeto de un amplio debate democrático.

"Para las aplicaciones de IA de bajo riesgo, la Comisión está considerando un sistema de etiquetado no obligatorio si aplican normas más estrictas". Esto implica sin duda la autocertificación por parte de los productores. Este principio de autocertificación merece un examen crítico serio a la luz de su aplicación en los últimos treinta años.

  1. Los requisitos de independencia y transparencia.

Los ciudadanos de la Unión esperan de los poderes públicos determinación en su lucha contra los grupos de presión, los conflictos de intereses y la connivencia.xiLa autoridad europea debe garantizar la transparencia y apertura del proceso de toma de decisiones. La autoridad europea debe garantizar que los procesos de toma de decisiones sean transparentes y públicos. La invocación del secreto comercial o de los derechos de propiedad intelectual es una forma barata de garantizar la opacidad, sobre todo en el caso de los estudios de expertos.xii. Los procedimientos públicos verificados por el Parlamento deben garantizar la independencia de los científicos responsables de las evaluaciones.xiii.

Por su parte, el 7 de marzo de 2019, el Tribunal de la Unión Europea anuló una decisión de la Autoridad Europea de Seguridad Alimentaria (EFSA). El tribunal dictaminó que los estudios confidenciales sobre la toxicidad del glifosato deben hacerse públicos, al considerar que "el interés público en el acceso a la información" en materia medioambiental pesa más que los intereses comercialesxiv. La AEPL considera que la misma regla se aplica en el ámbito de la IA.

Al especificar sus intenciones respecto a la IA, la Comisión también afirma: "Los sistemas de inteligencia artificial deben ser transparentes y trazables, garantizando al mismo tiempo el control humano. Las autoridades deben poder probar y certificar los datos utilizados por los algoritmos. Se necesitan datos imparciales para entrenar a los sistemas de alto riesgo para que funcionen correctamente y para garantizar el respeto de los derechos fundamentales, incluida la no discriminación."

La Comisión precisa que su sistema no afecta a las aplicaciones militares. Sin embargo, la AEPL señala que los oligopolios tecnológicos no hacen tal distinción. Tanto es así que fueron los trabajadores de Google quienes recientemente pusieron en jaque parte de la porosidad entre aplicaciones civiles y militares. Hay que tener en cuenta este tipo de confusiones a la hora de hablar de transparencia.

Además, los oligopolios comprometen recursos astronómicos y a veces desagradables para imponer la ley del más fuerte y ejercer una presión vertical sobre las autoridades públicas, que sólo disponen de medios para hacerlo.

de la Ley para proteger a los ciudadanos.                                                                                 6

Más allá de la cuestión de la seguridad y la protección de datos, el sistema también debería garantizar el derecho de los ciudadanos a la transparencia en el funcionamiento de los algoritmos. Un derecho digital a saber debería permitir una radiografía crítica de los algoritmos, o una auditoría, como dice Dominique Cardon.

  1. Romper silos y ampliar el debate para incluir a otros actores.

A pesar de las dificultades mencionadas en los párrafos anteriores, se ha producido un cambio en el equilibrio de poder, propiciado en particular por el auge de la sociedad civil, que exige responsabilidades, y el preocupante declive de la confianza en las instituciones tradicionales, incluidas las empresas privadas.xvi.

La necesidad de revisar nuestros estilos de vida hacia una mayor sostenibilidad, debatida desde la Cumbre de Río en 1992, ha estado en el centro de las preocupaciones de un pequeño pero creciente número de agentes económicos, entre ellos muchos industriales, que han decidido integrar los principios del desarrollo sostenible elaborados por la ONU en su estrategia empresarial.xvii.

Esta acción ha adoptado diversas formas, ya que los principios no pueden transponerse directamente a los agentes cuyo objetivo es obtener beneficios. Una de ellas ha sido profundizar en la noción de innovación responsable, sobre todo a raíz de la decisión de la CE de incorporar la llamada "Investigación e innovación responsables en el programa Horizonte 2020. Basándose en esta experiencia, el documento adjunto Comentarios sobre los documentos publicados el 19 de febrero de 2020  muestra lo rico que puede ser el debate en torno a estos grandes temas, y lo diferente que puede ser la comprensión de realidades complejas cuando se recurre a actores experimentados en la materia.

Conclusión.

La AEPL concibe este debate sobre la seguridad de los sistemas como parte de una reflexión más amplia sobre la finalidad de la innovación tecnológica en términos de su contribución al bienestar y al progreso de la humanidad. Este progreso debe estar indexado en un crecimiento del ser y no del tener, en armonía con las interdependencias terrestres y sociales y, por tanto, enfocado a largo plazo. Por ello, la AEPL considera que esta iniciativa reguladora debe inscribirse en un proceso democrático de determinación de la naturaleza deseable de las innovaciones.

El principio de precaución, combinado con el principio de proporción, es sin duda una de las claves para enfocar correctamente una innovación que esperamos que sea viable.xviii.

Para ello, pedimos a las autoridades europeas que trabajen con un amplio abanico de actores sobre el terreno, para tender puentes entre los distintos componentes de la sociedad, con las empresas, los gobiernos, la sociedad civil, las universidades y los inversores que practican las finanzas sostenibles.

Por ello, la AEPL insta a las autoridades europeas a que movilicen las herramientas de la IA para aplicar la Política Verde.       7 Deal y reparar las fracturas sociales. Las necesidades son enormes en lo que se refiere al desarrollo de las competencias de las personas, la circulación del conocimiento, la cultura, los cuidados en todas sus formas, el desarrollo de los servicios públicos y el acceso de todos a estos servicios. Si la Unión Europea quiere aumentar su independencia tecnológica, puede hacerlo poniendo en marcha un programa de proyectos conjuntos y desarrollando las herramientas necesarias para lograrlo. ad hoc. En otras palabras, diseñar las herramientas para la inteligencia compartida.

Sobre la base de un proyecto así, definido democráticamente, se plantean las cuestiones igualmente democráticas de qué datos capturar, por quién, para qué fines, sujetos a qué tratamiento, para qué contribución al debate sobre las opciones de la sociedad, etc. Esos datos y metadatos se tratarían entonces como propiedad común.

Junio de 2020

  • Alain Supiot, La gobernanza en cifras, 2015.
  • Por ejemplo, los grupos de presión de los empresarios franceses Raphaëlle Besse Desmoulières, Jean-Michel Bezat, Cédric Pietralunga y Nabil Wakim, Clima: los empresarios actúan para influir en las normas, Le Monde22 de abril de 2020.
  • Por ejemplo, en Francia, Service Planète, Le Monde9 de junio de 2018, o Stéphane Mandard, Lubrizol: controles deficientes en centros de alto riesgo, Id.5 de octubre de 2019.
  • Por ejemplo, Stéphane Mandard, Lubrizol: un informe condenatorio para los subcontratistas, Le Monde23 de octubre de 2019.
  • En materia de contaminación atmosférica, por ejemplo, el Tribunal de Cuentas Europeo constató en 2018 que "la salud de los ciudadanos europeos sigue estando insuficientemente protegida". Recomendó a la Comisión que adoptara límites más estrictos para la contaminación atmosférica. "estricto (Le Monde, 12 de septiembre de 2018).
  • En este caso, el Foro Europeo del Riesgo (Foro Europeo del RiesgoERF), una plataforma de presión de empresas químicas, tabaqueras y de combustibles fósiles.
  • Por ejemplo, Jean-Marc Lévy-Leblond, No hay garantía de que una civilización mantenga la actividad científicaEntrevista realizada por David Larousserie, Le Monde18 de marzo de 20.
  • Un retraso como el que se produjo en el proceso que debía regular los disruptores endocrinos, que dio lugar a la condena del Tribunal Europeo, desacredita a la Comisión.
  • Para comprobarlo, eche un vistazo a los 25 debates entre la Comisión y los Estados miembros entre 2013 y 2019 sobre los neonicotinoides que matan a las abejas. Véase, por ejemplo, Le Monde, 22 de diciembre de 2018.
  • Véase, por ejemplo, el trabajo del Corporate Europe Observatory, que denuncia la connivencia entre los grupos de presión y los responsables europeos.
  • en particular el artículo de David Demortain, sociólogo del INRA, que forma parte del Laboratorio Interdisciplinario de Ciencias, Innovaciones y Sociedades, Le Monde, 07 de febrero de 2018.
  • ¿Hace falta recordar el caso del instituto alemán BfR que copió, a menudo palabra por palabra, el 8 la solicitud de registro presentada por la industria para evaluar el glifosato (cf. Le Monde16 de enero de 2019)?
  • Stéphane Horel, Glifosato: una victoria de la transparencia, Le Monde10 y 11 de marzo de 2019.
  • los medios utilizados para defender el glifosato (Stéphane Foucart y Stéphane Horel, Monsanto ha registrado a casi 1.500 personas en Europa, Le Monde8 y 9 de septiembre de 2019).
  • https://edelman.com/trustbarometer
  • https://www.wbcsd.org/Overview/NewsInsights/General/News/RealizingsistemastransformaciónWBCSDembarqueenaactualizardesuhitoVisión2050
  • https://www.greenfacts.org/pole3pdf, https://www.youtube.com/watch?v=PZmNZi8bon8

 ix Véase, por ejemplo, Stéphane Foucart, Vínculos problemáticos entre investigación pública y agroquímicos, LM, 18 de junio de 2018.

es_ESEspañol