![China ya domina el lado más oscuro de la inteligencia artificial](/xlsemanal/wp-content/uploads/sites/5/2024/03/iatocracia-china-control-policial.jpg)
IA-TOCRACIA
IA-TOCRACIA
La inteligencia artificial (IA) como herramienta de control, de dominio, de poder. Mientras Occidente la regula y debate sobre sus posibles aplicaciones negativas, el Partido Comunista Chino no se anda con miramientos. Si desarrollar modelos poderosos de IA depende del acceso masivo a datos, nadie dispone de más materia prima que un país con 1426 millones de habitantes. Y como la hermética autocracia que es, su Gobierno goza de barra libre total y absoluta. Privacidad, intimidad, protección de datos... ninguna de estas salvaguardas propias del Estado de derecho se interpone en su camino. Así que, impulsado por semejante maná de big data, ya ha desarrollado la IA más sofisticada del mundo para controlar a sus ciudadanos.
Invasivas herramientas de reconocimiento facial, apps de 'recomendada' instalación que evalúan el compromiso ideológico individual, monitoreo automatizado de chats... son el primer paso en el desarrollo de las herramientas de IA más poderosas del planeta. El objetivo oficial, declarado en 2010, es alcanzar en 2030 el liderazgo mundial en todas las aplicaciones posibles –militar, industrial, espacial, logística, agrícola...– de IA, la tecnología determinante en la nueva revolución industrial.
Se trata de un novedoso paradigma al que ya se le ha puesto nombre: IA-tocracia. Lo ha acuñado un equipo de investigadores del MIT, de Harvard y de la London School of Economics en AI-Tocracy, un inquietante informe, publicado en Quarterly Journal of Economics, que revela la extensión de la IA de control ciudadano en China y analiza las claves del modelo de desarrollo tecnológico que guía al gigante asiático en sus aspiraciones de liderazgo mundial. Hablamos con el economista Martín Beraja, profesor del MIT y coautor –junto con Andrew Kao, David Yang y Noam Yuchtman– de una investigación cuyas conclusiones nos remiten a un viejo y políticamente incorrecto, pero certero, refrán: «No hay peor ciego que el que no quiere ver».
XLSemanal. ¿Cómo definiría exactamente la AI-tocracia?
Martín Beraja. Se da cuando un Gobierno se sirve de la IA para vigilar y reprimir a sus ciudadanos. El régimen chino es el gran paradigma IA-tocrático. Lleva años perfeccionando sus herramientas de IA y un modelo en el que la innovación tecnológica y la autocracia se refuerzan mutuamente.
XL. ¿Cómo es ese modelo?
M.B. De colaboración total entre el Gobierno y las empresas. El primero facilita cantidades masivas de datos a las firmas tecnológicas para acelerar así el desarrollo de herramientas de IA a su servicio. Las compañías obtienen una grandísima ventaja para entrenar sus modelos de IA. Es un modo muy efectivo para acelerar la innovación en este campo. En ningún país, el Estado influye de forma tan intensa en el desarrollo de IA.
XL. ¿Qué los llevó a investigar sobre este asunto?
M.B. Me llevó uno de mis campos de estudio: el impacto de la tecnología en los mercados de trabajo. En 2017 vimos que las políticas públicas en China tenían una influencia decisiva en el desarrollo de IA. Observamos que el Gobierno la usaba para el control social y decidimos buscar más información.
XL. En un país tan opaco como China, ¿dónde buscaron?
M.B. No fue tan difícil porque muchas bases de datos oficiales son públicas. Pudimos analizar los contratos entre la Policía y las empresas de software de IA y las de hardware fabricantes de cámaras de vigilancia. Lo cruzamos todo con informaciones sobre protestas, manifestaciones, críticas; y observamos que la conflictividad se reducía de forma drástica allí donde se instalaban estos dispositivos. Lo cual llevaba a las autoridades a invertir cada vez más en esa tecnología.
XL. ¿Sabe cuántas cámaras hay instaladas en las calles chinas?
M.B. Habría que actualizar la cifra, pero entre 2013 y 2018 fueron casi tres millones. Las inversiones se han multiplicado por cuatro en pocos años y hoy China es, de largo, líder mundial en IA de reconocimiento facial.
XL. En su informe veo que China exporta esta tecnología a países como Venezuela, Irán, Bielorrusia, Arabia Saudí, Níger, Egipto, Yemen, repúblicas exsoviéticas, Indonesia, Filipinas...
M.B. Así es, la IA china de reconocimiento facial es particularmente demandada por regímenes autocráticos y democracias débiles que experimentan o desean prevenir turbulencias sociales. Sobre todo, países que reciben ayuda de Pekín. Aunque no tenemos evidencia completa, es posible que subsidiar las exportaciones sea parte de su política exterior.
XL. Vender 'tecnología de seguridad' a autocracias no es algo exclusivo de China...
M.B. Es verdad. Estados Unidos, Israel y Reino Unido también son grandes exportadores, pero el grueso de sus compradores son democracias maduras. Y ricas. Muchas empresas occidentales, de hecho, se autoimponen la prohibición de exportar a determinados regímenes. China, sin embargo, vende por igual a todos.
XL. ¿La IA, entonces, favorecerá la represión gubernamental en un sentido global?
M.B. Sin los mecanismos de control y fiscalización propios de los países democráticos, la IA puede permitir, sin duda, un mayor control de la población.
XL. ¿Aquella idea de que la globalización promovería la democracia por el mundo queda definitivamente enterrada?
M.B. Completamente. El caso de China cuestiona la promesa del Consenso de Washington de que cuanta más integración y comercio, más democracia y liberalismo. Por primera vez, no todos los líderes tecnológicos son economías democráticas y liberales. Y, si China sigue exportando su tecnología, la globalización mejorará las herramientas de otras autocracias para garantizar su supervivencia. Es un elemento de cambio muy poderoso en las relaciones internacionales.
XL. ¿Hasta qué punto alcanzar el liderazgo mundial en este tipo de tecnología represiva es un ensayo para asaltar el de la IA en general?
M.B. Bueno, liderar ese sector de la vigilancia social era un objetivo estratégico de Pekín desde hacía tiempo. Y buscan hacer lo mismo en todos los campos. De hecho, las exportaciones de IA china, en general, ya están a la par de las de Estados Unidos.
XL. Dado que el desarrollo de los modelos de IA depende del volumen de datos para entrenarlos, ¿hasta qué punto es factible competir con China, el país más poblado del mundo, el que probablemente más datos reúne de sus ciudadanos, y que puede disponer de ellos casi a su antojo?
M.B. La diferencia clave entre China y Occidente es el Estado de derecho y sus mecanismos para proteger la privacidad de los ciudadanos, aunque incluso en nuestros países esto se hace cada día más difícil... Pero esta es una razón de peso por la cual será muy difícil competir con China en este campo. De hecho, trabajar para el Gobierno es el factor decisivo en el éxito de las empresas chinas. Sus propios CEO admiten sin pudor que la fuente principal de datos que alimenta sus modelos de IA es el Gobierno. Es una sinergia que también pueden aprovechar las democracias liberales, dando acceso a datos oficiales a las empresas de IA para ayudarlas a desarrollar productos.
XL. Eso implicaría privilegiar a determinadas empresas: permitirles aumentar su know how y sus beneficios a costa de los datos de los ciudadanos. Pero, claro, esto no es China...
M.B. Solo digo que es un modo de fomentar la innovación en tus propias empresas. En Estados Unidos ya se usan datos de satélites climáticos del Gobierno para desarrollar productos para la agricultura mediante IA; los fabricantes de vehículos autónomos utilizan mapas originados por satélites…
XL. ¿Qué opina de la propuesta de reglamento europeo para IA?
M.B. Desde un enfoque capitalista, una excesiva regulación lastrará a Occidente en esta carrera tecnológica contra China, un ámbito en el que ir por delante se traduce en superioridad, en poder. Creo que, de un modo general, se está sobrerreaccionando ante consecuencias negativas difíciles de anticipar por la experiencia previa con las redes sociales en materia de desinformación y otras cuestiones delicadas.
XL. La propuesta se centra en calidad de los datos, seguridad, transparencia, privacidad, no discriminación y supervisión...
M.B. Yo no estoy en contra de regular ciertos aspectos, pero entiendo que es muy difícil anticipar las consecuencias de la IA si no la dejas avanzar. En el caso de la IA de reconocimiento facial, los riesgos están claros, pero en el caso de modelos como ChatGPT no tanto y algunos están sobredimensionados. ¿Cómo anticipas sus aplicaciones negativas? La única forma es usarla, que aprenda y ver cómo la podemos utilizar. Esto no es como un fármaco, que lo desarrollas en ensayos clínicos para evaluar si es seguro para los humanos.
XL. Una consecuencia, al parecer inevitable, es un shock en el mercado laboral…
M.B. Sí, la automatización del trabajo que impulsan estas tecnologías mandará a la calle a millones de personas. La implantación de robots industriales ya envió a mucha gente con ingresos por debajo de la media al desempleo. La IA está haciendo lo propio con profesionales de ingresos más altos: abogados, desarrolladores de software, guionistas, periodistas... Igual ralentizar ahí sí que ayuda a preparar mejor la transición a ese escenario.
XL. ¿Y cómo se ralentiza algo aparentemente imparable?
M.B. Sobre la marcha, de forma progresiva: intervenir cuando se observan consecuencias negativas, incidentes, y tomar decisiones. Ver qué podemos tolerar y qué no. No creo que los gobiernos o el Parlamento Europeo tengan la capacidad de anticiparse a regular todas las cosas malas que puedan derivar de algo tan dinámico como la IA. Es una omnisciencia ficticia porque hay muchos temores y amenazas asociados a la IA que quizá no se concreten nunca.
XL. ¿Por qué sentimos tanto miedo al desarrollo de la IA?
M.B. Quizá porque el futuro nos parece cada vez más incierto. Pero tampoco estos temores son nuevos; toda tecnología implica algún tipo de riesgo en sus inicios. Durante décadas, el mundo temía el apocalipsis nuclear y, bueno, aún es posible, pero aquí seguimos.
XL. ¿Acaso no es su trabajo, precisamente, una advertencia sobre los peligros de la IA?
M.B. El uso que hace China para el control social nos muestra, sin duda, una de sus aplicaciones oscuras. Pero esto no significa que solo sirva para cosas negativas. La IA nos traerá logros muy positivos. La energía nuclear o la propia imprenta, que ha permitido la difusión de ideas nefastas para la humanidad, son claros ejemplos de esta dualidad habitual en muchas tecnologías.
XL. Hace poco se celebró la primera Cumbre de Seguridad en IA, con 28 países, China y Estados Unidos entre ellos. ¿Cree posible la cooperación en un campo tan estratégico y secreto?
M.B. Que haya un foro al que acuden China y Estados Unidos es interesante, pero está por ver en qué se traduce de verdad. Estaría bien que definieran qué tecnología de IA se puede exportar y bajo qué límites. Pero ¿cómo van a impedir Estados Unidos, Reino Unido o la UE que China venda IA de reconocimiento facial a Irán o a Venezuela?