Pier Luigi Dal Pino, directivo de Microsoft: «Las empresas de IA debemos ser controladas y multadas»
El ejecutivo dice que las compañías no quieren repetir los errores cometidos con las redes sociales, que fueron puestas en funcionamiento sin que nadie considerase los potenciales riesgos
'Rise of the ronin': cinco cosas sobre la caída de los samuráis y Japón que (seguramente) no sabías
La inteligencia artificial (IA) aspira a transformar la vida misma. En apenas unos pocos años, quien lo quiera, podrá usar la tecnología para crear películas o para escribir libros tan bien como el mejor. Pero la máquina sola, sin piloto al volante, será inútil. ... El humano seguirá siendo la gran clave; o, al menos, eso el lo que espera Pier Luigi Dal Pino, director de asuntos gubernamentales de Microsoft en Europa.
El ejecutivo, que recientemente estuvo de visita en España para participar en una conferencia de la Universidad Pontificia de Comillas, en Madrid, reconoce que la IA esconde muchos riesgos; que puede ser explotada para engañar a la sociedad y que hace falta mucho trabajo, y en muchos frentes, para evitar sus más que probables efectos nocivos.
—¿Cómo debe ser una inteligencia artificial para ser ética?
—Esto pasa por revisar mucho toda la tecnología antes de ponerla en el mercado. Eso es lo mejor que se puede hacer para reducir los riesgos, y no todas las compañías están haciendo lo mismo. En Microsoft llevamos haciendo esto desde hace ya muchos años.
—Sí, pero sus soluciones de IA, como las del resto, tienen problemas de sesgos y ofrecen información que no es correcta. Además, está el problema del entrenamiento de las máquinas con contenido sujeto a derechos de autor. ¿Aún así las considera éticas?
—Es ética la forma en la que produces o gestionas el algoritmo y lo pones en el mercado. Es cierto que tenemos muchos problemas, y hay todavía más de los que ha mencionado. Sobre todo con el tema del copyright, pero intentamos preparar nuestros productos para que no lo infrinjan. Si en algunos casos hay alguna infracción, protegeremos a quienes se vean afectados. Hay tecnología que marca el contenido creado o modificado por inteligencia artificial mediante una marca, para que el usuario no se confunda.
—Pero una marca se puede quitar. Y mi abuela no tiene ni idea de lo que es una marca. Si ve una foto que parece real, por mucho que esté marcada como creada por IA, es muy probable que piense que es auténtica
—Es algo que debemos plantearnos e intentar combatir entre todos el uso de IA para poner en la red 'fake news'. Las empresas también necesitamos control y ser multadas en caso de que se cometa algún error. El sistema judicial todavía no está listo para la IA. Nunca lo ha estado en materia de propiedad intelectual, por ejemplo. Ahora la situación es peor.
—¿Tenemos que acostumbrarnos todos a las marcas?
—Eso es lo más importante. Ahora hay que definir los estándares entre todos para crear un modelo de etiquetas que sea lo más seguro posible. Todo el mundo que cree herramientas con IA debe estar obligado a utilizarlo. Lo que más problemas puede dar, en términos de desinformación, son los vídeos falsos, que se pueden utilizar para propaganda política. Lo importante es que el usuario sepa siempre el origen del contenido y si este ha sido modificado, si es el caso. Y los jueces tienen que borrar el contenido de internet.
—Decía durante la conferencia anterior que hace veinte años las redes sociales llegaron a la red sin que las empresas se preocupasen demasiado por los peligros. ¿Con ChatGPT no pasó exactamente lo mismo?
—No. ChatGPT es una tecnología, no un espacio social abierta a los usuarios. Es una herramienta de apoyo. En el caso de Microsoft hemos metido la tecnología en servicios que ya existen, como Office. Hace años con las redes sociales solo se veían las ventajas y ahora nos estamos centrando, desde el primer momento, en los problemas que puede causar la IA. Nos estamos planteando muchas cuestiones de este tipo y lo estamos haciendo mucho antes de tiempo. Y lo repito, ChatGPT es una herramienta, no un foro.
—Queda claro, pero nadie sabe bien cómo ha sido entrenado.
—Sí, bueno, es un algoritmo que depende del uso que se le dé. Nosotros lo aplicamos a nuestros productos en un ambiente muy controlado.
—¿Nos va a dejar obsoletos o sin trabajo?
—Algunos trabajos se verán afectados por la inteligencia artificial. Estamos ante una gran revolución, y como pasa en estos casos, surgirán nuevos empleos y desaparecerán otros. Está claro que, desde luego, va a cambiar la forma en la creamos y va a haber nuevas oportunidades. Algunos trabajos muy rudimentarios serán eliminado y los que los llevan a cabo tendrán que hacer otras cosas.
—¿Por ejemplo?
—Por ejemplo, en una empresa de marketing los manuales de uso de productos los podrá traducir directamente la inteligencia artificial, y los que antes se dedicaban a eso podrán hacer otras cosas más complejas. Por ejemplo, pensar en cómo vender lo que ofrece la compañía.
—¿Veremos una IA que escriba mejor que un escritor o que haga películas de mayor calidad que las de un director de cine?
—No. El humano siempre será el que controlará esas herramientas. La inteligencia artificial puede crear por sí misma una película, pero es el usuario el que le tendrá que explicar cuál es el argumento y cómo quiere la escenografía. La tecnología debe ser entendida como un apoyo, pero no veo a la máquina haciendo todo el trabajo.
—Pero, entonces, todos podremos ser escritores o directores de cine.
—Probablemente, pero los directores y escritores seguirán existiendo. Vale lo mismo para la música.
—¿Y la tecnología podría acabar con la humanidad, como alertan algunos expertos?
—El riesgo siempre existe, porque no sabemos cómo pueden emplear la IA determinados actores. Por eso son necesarias las barreras de seguridad.
—¿Cómo se imagina el mundo de dentro de diez años?
—Me imagino dos o tres revoluciones digitales. El potencial de la computación y de las máquinas será enorme, y los chips habrán mejorado mucho.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete