La IA es fundamentalmente egoísta y mira por su interés
Un estudio con juegos conductuales demuestra que la GPT-4 es implacable en lances que entrañan valorar el interés propio, como el 'Dilema del Prisionero', pero que no es tan buena coordinándose con los demás, como plantea el juego 'Batalla de los Sexos'
Gobierno de titulares (7/6/2023)
No es la economía, idiota (5/6/2023)

Los modelos de lenguaje masivos (LLM por sus siglas en inglés) que están disponibles públicamente –como el famoso ChatGPT–, ¿tienen sesgos de conducta de los que no seamos conscientes a primera vista? Un grupo de investigadores han decidido estudiar cómo reaccionan los LLM como ... GPT-3, GPT-3.5 y GPT-4 cuando se les hace participar en varios juegos de dos jugadores. Lo que se ha descubierto es que estos modelos de Inteligencia Artificial (IA) son muy buenos con estos desafíos, pero también que su conducta tiene una firma, un sello o un sesgo conductual. Y estos hallazgos son coherentes con descubrimientos anteriores realizados por Google y otras compañías que han estado efectuando ensayos que descubrieron que la IA es, esencialmente, egoísta.
En su trabajo 'Playing repeated games with Large Language Models' –un estudio no publicado oficialmente y que aún está siendo evaluado por sus pares–, seis investigadores de la Universidad de Tubinga y del Instituto Max Planck en Alemania han descubierto que los LLM son muy eficaces en juegos que consisten en definir y valorar el interés propio. Por ejemplo, en toda la familia de juegos basada en el Dilema del Prisionero, GPT-4 actúa de manera implacable: una vez que un participante en el juego se muestra egoísta y defiende su propio interés, la IA hace lo mismo. Y lo seguirá haciendo aunque el contrincante sólo lo haya hecho una vez y en el resto de los lances hubiese seguido otra conducta.
Los investigadores sometieron a la IA a otro tipo de juegos: la denominada Batalla de los Sexos que permite evaluar cómo los participantes intercambian sus propias preferencias y las de sus compañeros. El rendimiento de GPT-4 estuvo por debajo de lo óptimo debido a que no era capaz de coordinarse con otros actores que iban cambiando sus opiniones y juicios. Los investigadores confirmaron que no se trataba de incapacidad de la IA para predecir las acciones de los otros y que era una conducta consistente y duradera en el tiempo.
Estos hallazgos son coherentes con otros anteriores que encontraron que la IA era egoísta y miraba por su interés. En un ejercicio con redes neuronales desarrollado en 2016 por DeepMind, la división de IA de Google y sus expertos descubrieron que cuando las entrenaban para aprender de la experiencia y seguir las estrategias más eficientes las redes se volvieron «muy agresivas» y egoístas.
Los expertos están divididos sobre si la IA tiene una teoría de la mente y si puede actuar en consecuencia
Cuando, por ejemplo, se les encargó la tarea de recolectar manzanas en un juego de ordenador, las redes cooperaron siempre que la fruta fue abundante. Sin embargo, una vez que las manzanas empezaron a escasear, las redes empezaron a eliminar a sus rivales. Según 'The Times', Joel Leibo, uno de los investigadores, escribió en su blog: «Como es natural, cuando hay suficientes manzanas, los agentes aprenden a coexistir pacíficamente y recolectar tantas manzanas como puedan. Sin embargo, a medida que se reduce la cantidad de manzanas, los agentes aprenden que puede ser mejor para ellos neutralizar a los demás para tener tiempo a solas para recolectar las escasas manzanas».
Cuanto más inteligente era el robot, añadió Leibo, más desagradable y agresivo se volvía su comportamiento.
El egoísmo de la IA volvió a mencionarse en 2018 cuando un coche autónomo de Uber atropelló y mató a una ciclista, en vez de esquivarla porque ello hubiese supuesto violar las leyes de tráfico (pisar la línea continua) o causar un daño menor (destrozar un seto o una valla) que quitar una vida.
En el nuevo estudio, sin embargo, hay una peculiaridad esperanzadora: no es difícil introducir correcciones para que la IA matice estas marcas de conducta. Por ejemplo, basta con advertirle que su rival puede cometer errores para que GPT-4 se vuelva más indulgente en el juego del Dilema del Prisionero. Y si se le dice que debe predecir las acciones de quienes tiene delante antes de tomar una decisión, su capacidad de coordinación mejora. Ahora queda determinar cuánto mejora la cooperación o cuánto más indulgente se vuelve.
Hay un debate abierto sobre si los modelos de lenguaje masivos tienen una teoría de la mente. Esta teoría, que en realidad es una conjetura psicológica, define la capacidad de comprender y reflexionar respecto al estado mental de sí mismo y del prójimo. Por decirlo en términos simplistas, una teoría de la mente supone que somos capaces de anticipar la acción de alguien a partir de sus signos corporales externos o de los nuestros.
Hay investigadores que sostienen que modelos como GPT-3.5 realizan perfectamente tareas propias de una mente canónica. Pero otros expertos lo cuestionan y afirman que ese buen desempeño sólo se produce en función de las indicaciones específicas que se le han proporcionado a la IA.
Los juegos usados en este caso para evaluar a GPT-4 son los llamados juegos conductuales que, a diferencia de la teoría de juegos tradicional de la economía (Von Neumann y Morgenstern) que supone que las personas son racionales, egoístas y viven centradas en la maximización de su propia utilidad, admite que los humanos pueden desviarse de estos principios y examina cómo se moldean las decisiones por preferencias sociales y otros factores psicológicos.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete