El Papa es una mujer y los vikingos eran negros: los fallos históricos garrafales de la IA de Google
La tecnológica está realizando cambios en su plataforma Gemini para que sus resultados sean más exactos a nivel histórico
Worldcoin: ¿por qué es tan valioso el iris y lo están escaneando?
![Imagen de un vikingo creada por un usuario con Gemini](https://s1.abcstatics.com/abc/www/multimedia/tecnologia/2024/02/22/viking-R7KpYdGyFvvHb6VGJ4NnnPJ-1200x840@diario_abc.jpeg)
La inteligencia artificial (IA) generativa avanza a velocidades de vértigo. Pero los resultados que ofrece siguen lejos, y mucho, de ser perfectos. Y eso vale para cualquier herramienta en la que el usuario piense; afecta a ChatGPT, al chatbot de Bing o a Gemini, la flamante plataforma de Google. Precisamente, el buscador más empleado en la red ha anunciado que su herramienta de IA ya no permite a los usuarios seguir creando imágenes de personas.
Todo después de que numerosos internautas comenzasen a compartir en redes sociales contenido creado con Gemini en el que se podía ver cómo la máquina había cometido varios errores históricos a la hora de crear imágenes de soldados alemanes de la Segunda Guerra Mundial, papas católicos, presidentes de Estados Unidos o vikingos, por poner algunos ejemplos.
«Estamos trabajando para solucionar problemas recientes con la función de generación de imágenes de Gemini. Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y pronto volveremos a publicar una versión mejorada», ha afirmado Google en un comunicado realizado en su cuenta oficial de X, red social anteriormente conocida como Twitter.
We're aware that Gemini is offering inaccuracies in some historical image generation depictions. Here's our statement. pic.twitter.com/RfYXSgRyfz
— Google Communications (@Google_Comms) February 21, 2024
En el comunicado, el gigante de las búsquedas, y posiblemente el actor más activo dentro de la actual guerra que libran varias tecnológicas para lanzar las herramientas más potentes basadas en inteligencia artificial, la empresa no hacía referencia a las imágenes compartidas en redes sociales.
New game: Try to get Google Gemini to make an image of a Caucasian male. I have not been successful so far. pic.twitter.com/1LAzZM2pXF
— Frank J. Fleming (@IMAO_) February 21, 2024
Entre ellas, se pueden ver algunas en las que los usuarios solicitaban a la máquina que crease imágenes de soldados alemanes de la segunda guerra mundial. El resultado: la máquina compartía contenido en el que se podía ver a mujeres asiáticas y a personas negras vistiendo uniformes que, aparentemente, son de las SS del régimen nazi.
By your logic (which seems close to correct, but not quite), it would seem this prompt should have elicited a refusal from Gemini. Instead, it reinvents what "Viking warrior" meant. pic.twitter.com/Vkn2PopWXz
— FridayNightEcon 🇺🇸🇺🇦🇮🇱 (@FridayNightEcon) February 21, 2024
Los usuarios también compartieron imágenes creadas con IA en las que aparecían mujeres cuando los usuarios pedían imágenes del Papa o mujeres negras cuando solicitaban creaciones de vikingos. «Es vergonzosamente difícil lograr que Google Gemini reconozca que existen los blancos», afirmó un empleado de Google mostrando más imágenes facturadas con la IA de la empresa para la que trabaja.
It's embarrassingly hard to get Google Gemini to acknowledge that white people exist pic.twitter.com/4lkhD7p5nR
— Deedy (@debarghya_das) February 20, 2024
«La Historia tiene más matices»
Los resultados de Gemini en la generación de imágenes históricas no son especialmente sorprendentes para cualquier que haya trasteado mínimamente con este tipo de herramientas. Las empresas detrás de su desarrollo se esfuerzan mucho para evitar que puedan crear contenido que pueda resultar ofensivo o discriminatorio. Lo que las empresas quieren es que todos los usuarios se puedan ver reflejados en sus resultados. Porque el daño reputacional para la empresa, en caso de que no fuese así, podría ser grande.
«Como parte de nuestros principios de IA, diseñamos nuestras capacidades de generación de imágenes para reflejar nuestra base global de usuarios y nos tomamos en serio la representación y los prejuicios», ha apuntado a este respecto en un comunicado en X Jack Krawczyk, director del equipo de Gemini.
Krawczyk, además, ha señalado que la compañía es «consciente» de que «Gemini ofrece imprecisiones en algunas representaciones de generación de imágenes históricas» y se está trabajando «para solucionarlo de inmediato». El ejecutivo reconoce que «los contextos históricos tienen más matices». Que no es lo mismo, por tanto, que un usuario le pida a una IA que le cree un soldado alemán de 1943 que solicitar un soldado alemán a secas. Los detalles importan.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete