Hazte premium Hazte premium

«¿Quién vigila a los que te vigilan?»: las grietas con las que nace la Ley de IA de Europa

El Parlamento europeo aprobó ayer la normativa, que entrará en vigor antes de la llegada del verano

Hay dudas sobre el uso de reconocimiento facial y temor a que los países no sean multados

Europa aprueba la primera ley de inteligencia artificial de la historia: estas son sus claves

Rodrigo Alonso

Esta funcionalidad es sólo para registrados

Después de años de negociaciones y de idas y venidas, la Unión Europea, al fin, tiene su añorada Ley de Inteligencia Artificial (IA). La primera de su clase en todo el mundo. El Parlamento aprobó ayer la normativa con una abrumadora mayoría de 523 votos a favor por solo 46 en contra. Para que se convierta en realidad, solo queda que los Estados miembro le den su visto bueno al texto, cosa que, a estas alturas, es poco menos que un trámite, y que este aparezca publicado en el Diario Oficial de la UE. Todo esto ocurrirá antes del final de la legislatura europea, que termina el próximo junio, aunque para que la ley sea plenamente efectiva todavía habrá que esperar dos años.

Juristas consultados por ABC destacan que la «histórica y pionera» normativa, que prohíbe el uso de determinados sistemas de inteligencia artificial en suelo comunitario por el peligro que implican, y establece controles férreos a otros, «es buena, la mejor probablemente a la que podíamos aspirar». Pero eso no implica, ni mucho menos, que sea perfecta. O que, en el futuro, cuando se aplique en su totalidad, no vaya a generar efectos indeseados.

Sistemas prohibidos

Efectivamente, la Ley de Inteligencia Artificial prohíbe totalmente para cualquiera, ya sea empresa o administración pública, el uso de herramientas basadas en inteligencia artificial que puedan vulnerar gravemente los derechos de los ciudadanos y que se utilizan activamente en países autoritarios, como China. Ese es el caso de aquellos que están destinados a la puntuación social, la categorización biométrica de los ciudadanos para conocer raza, credo o ideología o el reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas.

«Se exigirá que todos los productos reciban un sello de validación antes de que se comercialicen, se usen o se distribuyan. Algo que tiene mucho sentido», explica en conversación con ABC Pere Simon, coordinador del máster en Derecho Digital de la Universidad Internacional de La Rioja (UNIR).

Reconocimiento facial

El uso tecnología de reconocimiento facial en espacios públicos ha sido una de las mayores causas de disensión entre el Parlamento, que quería prohibirlo por completo, y el Consejo, que deseaba dejar la puerta abierta a su uso. También fue el principal culpable de que el principio de acuerdo sobre la normativa alcanzado el pasado diciembre estuviese cerca (mucho) de no producirse. De acuerdo con la ley, solo podrá emplearse por las fuerzas y cuerpos de seguridad para la investigación de dieciséis delitos concretos; entre ellos, la lucha contra el terrorismo, la trata de blancas o la localización de desaparecidos o víctimas de secuestros. Por norma general, su uso está sujeto a la autorización previa de una autoridad judicial o administrativa. Aunque, en caso de extrema gravedad, la tecnología se podrá poner en marcha sin consentimiento previo.

«Me parece bien que se use en algunos casos. Lo que me preocupa y me genera dudas es cómo se va a decidir su uso y quiénes van a ser los agentes encargados de que no se violen los derechos de los ciudadanos», señala Ofelia Tejerina, presidenta de la Asociación de Internautas.

«¿Quién los vigila?»

La Ley de IA contempla sanciones para todas aquellas empresas que incumplan. Estas varían desde los 7,5 millones de euros hasta los 35 millones, o el 7% del volumen de negocios global de la compañía infractora. Sin embargo, no se establecen sanciones de este tipo para los posibles fallos de la administración que, además, responde sobre el uso de una tecnología tan problemática como el reconocimiento facial. Por el contrario, la normativa señala que «cada Estado miembro establecerá normas sobre la medida en que podrán imponerse multas administrativas a las autoridades y organismos públicos». O lo que es lo mismo, es posible que terminen quedando sin castigo económico.

«Es el mismo problema que tenemos ahora mismo con el Reglamento General de Protección de Datos, que no se está multando a las administraciones. ¿Quién vigila a los que nos vigilan?», alerta Borja Adsuara, expresidente de Red.es y abogado especializado en derecho digital. El experto, además, remarca que no puede ser que a las empresas privadas se les «caiga el pelo» cuando cometen una infracción y que al estado «nunca le pase nada». Precisamente, eso es lo que ocurrió hace dos años con Radar Covid después de que incumpliese con el reglamento de protección de datos.

Derechos de autor

ChatGPT ha levantado una polvareda enorme en la red. Su enorme popularidad y el surgimiento de soluciones similares en la red, capaces de generar texto, imágenes, audio y hasta vídeo a demanda del usuario, obligó a hacer cambios en la ley. De acuerdo con la normativa, la empresas detrás de las herramientas deberán cumplir con obligaciones de transparencia y seguridad adicionales, además de respetar la normativa de derechos de autor. Un tema espinoso de la tecnología. El reglamento, además, no es en absoluto claro sobre cómo pretende garantizarlo.

«No se resuelve expresamente, solo hay obligaciones. No dice qué va a pasar con este tema y cada país irá a la suya seguramente. Habrá que esperar a que se regule de forma única para Europa», dice Pere Simon.

A cuentagotas

El reglamento llegará en su totalidad en 2026. Demasiado tiempo, de acuerdo con todos los expertos en IA y ética consultados por ABC a lo largo de los últimos meses. Más teniendo en cuenta el enorme efecto que se espera que tenga la tecnología en la vida de todos en el futuro más inmediato. No obstante, habrá partes de la ley que irán siendo efectivas antes. Seis meses después de la entrada en vigor, los estados irán eliminando progresivamente los sistemas prohibidos. El encargado de supervisar que así sea, y de garantizar que todos los sistemas que llegan a la UE cumplen con la regulación, será la nueva Oficina de la IA dependiente de la Comisión Europea.

Esta funcionalidad es sólo para suscriptores

Suscribete
Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación