El Consejo de Estado critica la nueva norma de inteligencia artificial del Gobierno por restringir la competencia
El Ejecutivo solo permite a doce entidades participar en el entorno de pruebas de la inteligencia artificial
El texto quiere proteger a los usuarios de los riesgos de esta herramienta, como las 'apps' que simulan desnudos
Así funciona la 'app' que desnudó a las menores de Badajoz
![La ministra de Asuntos Económicos y Transformación Digital, Nadia Calviño, comparece durante la Comisión Mixta para la Unión Europea, en el Congreso de los Diputados, el pasado 22 de septiembre de 2022](https://s3.abcstatics.com/abc/www/multimedia/sociedad/2023/11/07/calvino-R5i0gdsVOug9WeUXwyruWMM-1200x840@abc.jpg)
El Gobierno aprobó este martes en Consejo de Ministros un real decreto para poner en marcha el «primer entorno controlado de pruebas para comprobar la forma de implementar los requisitos aplicables a los sistemas de inteligencia artificial» previstos en el Reglamento Europeo de ... Inteligencia Artificial.
Dicho reglamento podría ser aprobado a finales de año y tiene como objetivo regular la inteligencia artificial en Europa para «asegurar el respeto de los derechos fundamentales de los ciudadanos», así como generar confianza en el desarrollo y uso de la inteligencia artificial de manera holística en la economía y la sociedad, apunta el decreto al que ha tenido acceso este periódico.
Las entidades que podrán acceder a este entorno de pruebas que aprueba el Gobierno con este decreto es bastante limitado: mínimo ocho y máximo doce. Así lo reprocha el Consejo de Estado en su dictamen sobre la norma del Gobierno en la que alude al «carácter muy limitado del número de participantes previsto para la experiencia (entre 8 y 12)», señala el máximo órgano consultivo del Gobierno.
El Consejo de Estado no solo repara en la escasa participación, también le recuerda al Gobierno que hay una norma que debe cumplirse sobre empresas emergentes que establece que para los entornos de prueba tiene que haber igualdad, no discriminación, y que ya los mencionados entornos de prueba provoquen «la mínima distorsión de la competencia en los mercados», entre otros principios.
Documento acreditativo
En definitiva, el CE advierte al Ejecutivo en funciones de que aunque este asegure que la norma «no tiene impacto sobre la competencia en el mercado, puesto que de ella no se deriva ninguna ventaja competitiva para las entidades participantes» debe evitar cualquier tipo de agravio comparativo con las entidades que se quedan fuera. Sobre el mismo tema, si bien el Ejecutivo asegura que la norma no supondrá ningún beneficio económico, el Consejo de Estado reprocha que las entidades participantes sí son destinatarias de «un beneficio directo adicional». En este sentido, el órgano consultivo recuerda que «la culminación exitosa de la experiencia por parte de un proveedor dará lugar a la expedición de un documento acreditativo de su participación, junto a un informe de valoración de los resultados obtenidos y a la emisión de un comunicado público en el portal web correspondiente».
Sistemas de «alto riesgo»
Agrega que «esta valoración por parte de la autoridad competente proporcionará al proveedor una suerte de presunción de conformidad de sus sistemas de inteligencia artificial con los requisitos que la regulación impone que sin duda puede beneficiarle».
El texto pretende que con los entornos de prueba surjan guías de ejecución para todos aquellos que desarrollen tres tipos diferentes de sistemas de inteligencia artificial. Estos son, tal como marca la norma europea, los llamados de alto riesgo, sistemas de propósito general y modelos fundacionales.
El primero, entre otras definiciones, hace referencia a un sistema de IA que vaya a ser utilizado como un componente que desempeña una función de seguridad «y cuyo fallo o defecto de funcionamiento pone en peligro la salud y la seguridad de las personas o los bienes en un producto regulado por una norma armonizada de la Unión Europea». También incluye aquellos sistemas que afectan a la identificación biométrica y categorización de personas físicas; a las infraestructuras críticas; la educación; el empleo; los servicios públicos; los asuntos relacionados con la aplicación de la ley; la gestión de la migración, el asilo y el control fronterizo y, por último, los procesos democráticos.
ChatGPT
El segundo tipo, el sistema de inteligencia artificial de propósito general es aquel destinado a realizar funciones como el reconocimiento de texto, imágenes y del habla; la generación de textos, audios, imágenes y/o vídeos; detección de patrones; respuesta a preguntas; traducción y otras. El ejemplo más conocido: el ChatGPT.
El tercer tipo, el sistema fundacional, es un modelo «entrenado en una gran cantidad de datos no etiquetados a escala (generalmente mediante aprendizaje autosupervisado y/o con recopilación automática de contenido y datos a través de internet mediante programas informáticos) que da como resultado un modelo que se puede adaptar a una amplia gama de tareas posteriores».
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete