El G7 acuerda la primera norma sobre Inteligencia Artificial
Todo software de IA que salga al mercado en Estados Unidos deberá ser aprobado antes por las autoridades
La UE aprueba la ley para controlar los peligros de la inteligencia artificial
![Poner coto a los peligros de la IA es la misión que se ha propuesto el G7](https://s1.abcstatics.com/abc/www/multimedia/tecnologia/2023/10/30/uso-ia-Rol3ilMBOiHZ6xlMXzoA6VP-1200x840@abc.jpg)
Durante muchos meses, Estados Unidos ha mantenido una posición contraria a cualquier tipo de normativa, mientras que Francia y Alemania defendían la necesidad de poner puertas al campo de la Inteligencia Artificial (IA). Finalmente, los países del G7 han acordado un primer código ... de conducta para las empresas que desarrollan esta nueva tecnología, con la que esperan minimizar los riesgos relacionados con la desinformación y la vulneración de la privacidad o propiedad intelectual.
Las siete mayores economías del mundo exigen a proveedores como OpenAI, Microsoft o Google protocolos para identificar los posibles riesgos de los sistemas de inteligencia artificial como ChatGPT y publicarlos periódicamente en informes de transparencia. También deberían desarrollar medidas efectivas para marcar el contenido de IA, por ejemplo mediante marcas de agua especiales, que permitan diferenciarlo del material de creación humana. La base de la declaración conjunta es un «proceso de IA de Hiroshima» lanzado por los ministros digitales del G-7 en mayo.
Como parte de este proceso, Japón, Alemania, Estados Unidos, Canadá, Francia, Gran Bretaña e Italia han desarrollado directrices internacionales y un código de conducta voluntario para proveedores de IA avanzada que los desarrolladores de IA pueden utilizar como guía. El G7 no considera, sin embargo, el problema resuelto. Este acuerdo es presentado como un primer paso que debería desarrollarse continuamente«, porque reconocen que la tecnología avanza tan rápidamente que a los legisladores les resulta difícil mantenerse al día.
En los últimos meses, incluso las grandes empresas de internet habían pedido repetidamente directrices fiables que guíen el desarrollo de la nueva tecnología de forma ordenada. Desde que el desarrollador californiano de IA OpenAI publicó el año pasado su sistema ChatGPT, el público en general se ha dado cuenta de las posibilidades y peligros asociados a este tipo de sistemas: puedes analizar datos y crear tu propio contenido en cuestión de segundos, pero éste no corresponde siempre con los hechos. Con su ayuda también es posible la manipulación y las denuncias falsas, un aspecto que preocupa especialmente al ministro Digital alemán, Volker Wissing, que describe el código de conducta como un «hito para el uso seguro de la inteligencia artificial en todo el mundo».
Primeras normas de conducta para la IA
Por primera vez, varios países han acordado directrices destinadas a garantizar «que la IA se desarrolle de acuerdo con nuestros valores«. Wissing enfatiza que «los sistemas avanzados de inteligencia artificial no deben usarse para dañar nuestras democracias, manipular a las personas y apoyar el terrorismo u otras actividades criminales».
La Unión Europea también está trabajando en una ley integral de IA, que actualmente se encuentra atravesando un difícil proceso de coordinación entre el Parlamento, el Consejo y la Comisión Europea. La ley debería estar finalizada a finales de año y seguramente encontrará en el acuerdo del G7 un valioso referente. En una reacción inicial, la Comisión Europea ha elogiado la declaración conjunta de los estados del G-7. Ursula von der Leyen ha pedido a los desarrolladores de IA que firmen y apliquen el código de conducta lo más rápido posible. El presidente de los Estados Unidos, Joe Biden, ya ha dado por su parte unprimer paso concreto hacia una mayor regulación y ha emitido un decreto al respecto.
En el futuro, exigirá, entre otras cosas, que los proveedores de IA realicen determinadas pruebas sobre si los programas plantean riesgos para la seguridad nacional y la salud pública. «Es el siguiente paso en una estrategia agresiva para hacer todo lo posible en todos los frentes para aprovechar los beneficios de la IA y mitigar los riesgos«, ha declarado el miembro de su gabinete Bruce Reed, que ha explicado que, en adelante, antes de que un nuevo software de IA salga al mercado, los resultados deben ser aprobados por las autoridades. Esta semana se reunirán además en Gran Bretaña altos representantes de la política, la economía y la investigación para una cumbre sobre IA en la que se tratarán las cuestiones regulatorias.
La pregunta que siempre surge en el debate es qué aplicaciones deben ser clasificadas como de alto riesgo y, por tanto, estar sujetas a una regulación especialmente estricta, sin por ello frenar innecesariamente el desarrollo de esta nueva tecnología.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete