El Vaticano teme que la IA convierta al ser humano en «esclavo de su obra» y pide un compromiso global
Avisa de que se está reduciendo «la posibilidad de ejercer un control» sobre la tecnología y pide proteger la «capacidad humana de acción»
Los valores socialistas de DeepSeek: «¿Qué ocurrió en Tiananmén? Eso está fuera de mi alcance»

El Vaticano avisa del peligro de que el ser humano se convierta «en esclavo de su propia obra» y reclama garantías para que la inteligencia artificial (IA) no tome el control de la sociedad. En una extensa nota publicada este martes, mirando a medio ... y largo plazo, reconoce las oportunidades que plantea la tecnología, pero avisa de las graves amenazas que supone para la dignidad humana en ámbitos que van desde la educación de los niños, la defensa militar o la democracia y la opinión pública.
El tono del texto, que ha sido publicado con la autorización del Papa Francisco, no es apocalíptico, pero sí crudo en la descripción de las consecuencias de estas aplicaciones. «Como ocurre con muchas tecnologías, los efectos de las distintas aplicaciones de la IA no siempre son predecibles en su inicio. Es importante que los usuarios individuales, las familias, la sociedad civil, las empresas, las instituciones, los gobiernos y las organizaciones internacionales, cada uno a su nivel de competencia, se comprometan en garantizar que el uso de la IA sea adecuado para el bien de todos», solicita.
La propuesta central que lanza el Vaticano es concretar modos que garanticen «que los sistemas de IA se ordenen para el bien de las personas y no contra ellas». Destaca que «a medida que son cada vez más capaces de aprendizaje independiente, puede reducirse de hecho la posibilidad de ejercer un control sobre ellos para garantizar que dichas aplicaciones estén al servicio de los fines humanos». Por eso, piden que se garantice y proteja «la capacidad humana de acción».
Concentración empresarial
Además de «la «dificultad para supervisarla», al Vaticano le preocupa que «la mayor parte del poder sobre las principales aplicaciones de la IA esté concentrado en manos de unas pocas y poderosas empresas», con la consecuente posibilidad de que «pueda ser manipulada para ganancias personales o empresariales, o para orientar la opinión pública hacia los intereses de un sector».
Pide por eso que sea claro «quién es responsable de los procesos de IA, en particular de aquellos que incluyen posibilidades de aprendizaje, corrección y reprogramación». Recuerda que estas tecnologías no son neutrales pues «persiguen objetivos que les han sido asignados por los humanos y se rigen por procesos establecidos por quienes los diseñaron y programaron».
A largo plazo, el Vaticano ve que la inteligencia artificial modifica el modo de entender al ser humano, pues confunde la palabra inteligencia por eficacia y velocidad en el proceso de datos complejos. Por eso, avisa de problemas para los trabajadores, que «se ven obligados a adaptarse a la velocidad y las exigencias de las máquinas, en lugar de que éstas últimas estén diseñadas para ayudar a quienes trabajan». Así, «la necesidad de seguir el ritmo de la tecnología puede erosionar el sentido de la propia capacidad de obrar de los trabajadores y ahogar las capacidades innovadoras que están llamados a aportar en su trabajo».
Relaciones afectivas
Otro sector en el que apunta nubarrones es el de las relaciones interpersonales, por ejemplo para la educación de los niños o en la vida afectiva de los adultos. Se refiere al «simulacro» de relaciones que es interactuar con 'chat bots' o aplicaciones que dan una apariencia realista de conversación con un ser humano.
«Algunos recurren a la IA en busca de relaciones humanas profundas, de simple compañía o incluso de relaciones afectivas» y «corremos el riesgo de sustituir la auténtica relacionalidad por un simulacro sin vida». Además, «los niños pueden sentirse alentados a desarrollar patrones de interacción que entiendan las relaciones humanas de forma utilitaria, como es el caso de los chat bots. Tales enfoques corren el riesgo de inducir a los más jóvenes a percibir a los profesores como dispensadores de información y no como maestros que les guían y apoyan en su crecimiento intelectual y moral». Como solución provisional, pide por ejemplo «evitar representar, en modo equivocado, a la IA como una persona».
«Establecer una equivalencia demasiado fuerte entre la inteligencia humana y la IA conlleva el riesgo de sucumbir a una visión funcionalista, según la cual las personas son evaluadas en función de las tareas que pueden realizar. Sin embargo, el valor de una persona no depende de la posesión de capacidades singulares, logros cognitivos y tecnológicos o éxito individual, sino de su dignidad intrínseca basada en haber sido creada a imagen de Dios», recuerda.
También le inquieta el uso de la inteligencia artificial para generar 'deepfakes', «contenidos manipulados e informaciones falsas que, al ser muy difícil de distinguir de los datos reales, pueden inducir fácilmente al engaño». La cuestión es especialmente grave «cuando se utilizan para atacar o perjudicar a alguien: aunque las imágenes o los vídeos puedan ser artificiales en sí mismos, los daños que causan son reales».
A medio plazo, la presentación distorsionada de la realidad «socava progresivamente los cimientos de la sociedad», «alimentando la polarización política y el descontento social», pues «erosionan la confianza en lo que se ve y se oye, y aumentan la polarización y el conflicto». «Cuando la sociedad se vuelve indiferente a la verdad, diversos grupos construyen sus propias versiones de los «hechos», con lo que las conexiones mutuas y las interdependencias, que están en la base del vivir social, se debilitan».
En ámbito militar, recuerda la solicitud del Papa de garantizar que la IA no tenga la última palabra en el uso de armas y en la decisión de los objetivos militares. Tampoco en «la evaluación de individuos o grupos sobre la base de su comportamiento, características o historial» para evaluar su idoneidad para seguros médicos, hipotecas, procesos judiciales, reducción de condenas o concesión de visados.
La inteligencia humana va más allá del cálculo
Como propuesta, invita a «cultivar aquellos aspectos de la vida humana que van más allá del cálculo para preservar una 'auténtica humanidad'», y dice que «la IA sólo debe utilizarse como una herramienta complementaria de la inteligencia humana y no para sustituir su riqueza». «No es una forma artificial de la inteligencia, sino uno de sus productos», subraya. La nota lleva por título en latín 'Antiqua et nova', en referencia a las palabras iniciales del texto «Con antigua y nueva sabiduría».
Se trata de un documento emanado conjuntamente por los dicasterios para la Doctrina de la Fe y para la Cultura y la Educación, firmado por sus prefectos, los cardenales Víctor Manuel Fernández y José Tolentino de Mendonça. El texto, extenso y con muchos matices, es una guía ética para abrirse paso en este terreno de arenas movedizas, antes de que sea demasiado tarde.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete