La IA genera material hiperrealista para pederastas que la UE quiere perseguir: «Se están creando algunas de las cosas más atroces que existen»
El fenómeno es un negocio y Europa acaba de aprobar una propuesta para regular su uso y que las imágenes se persigan como pornografía infantil
![La IA genera material hiperrealista para pederastas que la UE quiere perseguir: «Se están creando algunas de las cosas más atroces que existen»](https://s2.abcstatics.com/abc/www/multimedia/sociedad/2023/09/29/IA-OPT-ktPC-RRJI9ScxOJECfDqsvnZVYhL-758x531@abc.jpg)
A lo lejos y tras una puerta cerrada se escuchan gritos. Un giro de picaporte da acceso a una habitación a oscuras con tan solo un foco de luz, y una figura ante a un monitor. Las imágenes son aún difusas, pero a medida que la distancia disminuye se hacen más contundentes. Lo que tenemos ante nosotros no es otra cosa que la violación de dos niñas, salvo por un detalle: esas imágenes no son reales.
Se trata de contenido perturbadoramente hiperrealista creado por una inteligencia artificial. Esos niños no existen, pero sus consumidores sí. Y siempre hay millones de usuarios dispuestos a darle a 'abrir' para acceder a un nuevo catálogo de lo más demandado. Primero empezaron secuestrando niños y vendiéndolos; luego, bastaba con una webcam para servir a millones de internautas. Ahora, con la IA pueden combinar todas esas opciones. Y, para ponerle coto, la UE acaba de acordar actualizar su directiva y que este contenido se persiga como un delito de pornografía infantil.
La ONG Child Rescue Coalition llegó a diseñar un mapa para identificar a los ordenadores que comparten o descargan imágenes y vídeos sexualmente explícitos de niños. El resultado muestra la aterradora expansión de pederastas por el mundo, donde cada uno de los puntos representa un equipo que posee al menos un archivo que muestra a un niño abusado.
![La IA genera material hiperrealista para pederastas que la UE quiere perseguir: «Se están creando algunas de las cosas más atroces que existen»](https://s2.abcstatics.com/abc/www/multimedia/sociedad/2024/02/10/mapa2abuso-U85604637521sVW-624x350@abc.jpg)
En sus informes, esta organización señala que hasta el 85% de los delincuentes en línea pueden llegar a abusar de un niño, y estiman que 1 de cada 20 niños y 1 de cada 5 niñas sufrirá algún tipo de abuso sexual antes de los 18 años. La cuestión es simple: caras, cuerpos y voces extremadamente realistas -que no reales- de niños siendo abusados no supone verdaderamente un problema o ¿por el contrario sí lo es y uno muy grande?
Un juego de realidad y ficción que mueve más que la droga
Se trata de un mercado que ya en su versión analógica mueve cantidades multimillonarias del 500%. Es tan potente que está superando al negocio de la droga, según la ONU, y ahora con la IA podría superar cualquier cifra jamás vista, ya que las autoridades confirman que se están creando cantidades industriales de este material en cuestión de minutos. El presidente de la Fundación de IA del Gobierno del Reino Unido sentenciaba sin cortapisas que se están creando algunas de las cosas más atroces que existen.
Por eso no es tan difícil creer que el 80% de los usuarios de una 'Dark web' con más de tres mil miembros haya confesado haber usado o querer usar en el futuro herramientas de IA para crear imágenes realistas de abusos sexuales a menores, tal y como revela un sondeo hecho por la empresa de seguridad ActiveFence. Y tanto sus creadores como los consumidores de todo el mundo se escudan en un atajo que consideran perfecto: estas personas no existen y si no hay daño no hay delito.
El director de protección infantil del consejo NPCC (Sociedad para la Prevención de la Crueldad de los Niños, en inglés), Ian Critchley, aclaró a la BBC que sería incorrecto decir que no se esté causando daños por ese tipo de imágenes «sintéticas». Un pedófilo podría progresar en su escala de acción partiendo del pensamiento, pasando precisamente por lo sintético, hasta abusar de un niño de verdad.
Sin embargo, casos como el de Almendralejo con las 'deepfake' de desnudos de varias jóvenes o el debate de si hay o no vacíos legales, evidencian una realidad preocupante. Estamos ante un problema que irá a mayores en un futuro cercano. Y entre las primeras en dar su voz de alarma públicamente están las autoridades británicas. Alertan que los productores de vídeos de abuso infantil y redes de pederastas usan una IA llamada Stable Diffusion. Y explican que se han topado con imágenes de violación de menores y de bebés creados por IA.
El arma perfecta
Para realizar todo esto los pederastas han dado con Stable Diffusion, pensada originalmente para el diseño gráfico, ahora diversos internautas pueden describir la imagen de abuso sexual y el programa genera el vídeo. Su ventaja es que se puede descargar en ordenadores personales en lugar de quedarse en la nube. Y este ardid imposibilita seguir el rastro de los movimientos de los pederastas. Después de descargar un contenido, lo que obtienen las autoridades es un silencio atronador en redes.
Octavia Sheepshanks, una periodista independiente que ha estudiado estos casos de cerca, dijo a la BBC que los usuarios están «produciendo mil imágenes al mes», y el aluvión es constante. Con precios que varían y que pueden ser de tan solo ocho dólares para acceder a lo que en el mundillo llaman «arte exclusivo no censurado».
Basta con tener claras las cuentas para entender cuánto de este tipo de material se puede crear. Así tenemos el caso real ocurrido en Corea del Sur en el que se detuvo a un hombre acusado, por primera vez en la legislación del país, por crear vídeos para pederastas con IA. A mediados de abril y siendo solo un hombre había creado ya 360 imágenes. Ahora pensemos en lo que podrían hacer cientos o millones de creadores produciendo un contenido a la carta.
Vía de creación
La mecánica de los autores de estos vídeos consiste en que, una vez creadas las imágenes con software, las colocan en una popular plataforma de redes sociales llamada Pixiv, usada principalmente por artistas que comparten mangas y animes. El sitio está situado en Japón, y esto evita que se encuentren trabas para su difusión. En el país nipón fue recién en 2014 cuando empezó a castigarse ya no solo la producción y distribución de material sexual con niños, sino también su posesión. Pero la medida solo afecta a infantes de carne y hueso.
Pixiv se convierte así en el lugar idóneo porque el intercambio de dibujos animados sexuales y de menores con IA no son ilegales. Les ponen etiquetas, creando en el proceso listas de palabras clave solo conocidas por los creadores y los consumidores. Y la BBC detalla que estas cuentas contienen hipervínculos que llevan a los clientes a imágenes más explícitas, por las que pueden pagar por mirar en sitios como Patreon.
![Imagen - «El contenido pedófilo creado por los propios niños creció en un año en un 374%«](https://s2.abcstatics.com/abc/www/multimedia/sociedad/2024/02/10/imagencabeceraabuso2-U45364356348xLs-170x170@abc.jpg)
«El contenido pedófilo creado por los propios niños creció en un año en un 374%«
Internet Watch Foundation
Mientras los internautas intercambian este contenido, también se les ofrece poder acceder a material real de violaciones infantiles. Los encargados de Stable Diffusion han intentado poner filtros en sus nuevas versiones para cortar por lo sano estos delitos, pero sigue circulando por la red una versión antigua que es inmune a los nuevos obstáculos interpuestos. En suma, es como intentar poner vallas al campo.
Los criminales en modo alerta
A su vez los usuarios advertidos de que esta nueva tendencia está bajo la lupa de la policía, conocen formas de evasión. En la 'Dark web' se intercambian manuales que explican como eludir las palabras clave que podrían llevarles a la casilla de una celda. Y lo cierto es que han demostrado ser muy eficientes saltándose las restricciones de seguridad. La Fundación de Vigilancia de Internet (IWF) especificó que se dan consejos sobre cómo crear imágenes ilegales con modelos de IA de código abierto.
Asimismo, Internet Watch Foundation arroja otra cifra de importancia: «el contenido pedófilo creado por los propios niños creció un 374%, según datos de 2021. Un cálculo en el que aún no entran las cifras con material creado con IA.
Crimen y castigo: «El daño, es tan realista que parece real»
Una de las cuestiones básicas de este artículo es conocer que tiene que decir la legislación al respecto. Algunos abogados argumentan que la cosa ya es peliaguda a nivel legislativo cuando se usan partes de una persona real, ya que la IA puede hacer un especie de collage de imágenes tomadas de la red para crear una persona. Ahora con esta nueva funcionalidad de la IA, el tema se complica. Y mientras unos abogados sostienen que hay una laguna legal en la legislación española. Otros, como Borja Adsuara, abogado experto en derecho digital, dice que no existe ningún vacío legal.
Nos explica que la reforma del 2015 se hizo para incluir en el Código Penal los ciberdelitos. Y no hace falta que se cite expresamente a la IA o cada nueva tecnología, porque este delito, que en el mundo del derecho se llama pseudopornografía infantil, es simplemente la producción y distribución de imágenes realistas. Si lo haces con Photoshop o con IA, da lo mismo. Y pone como ejemplo que es igual que te estafen con el timo de la estampita o que te hagan una ciberestafa con phishing, en ambos casos es delito en España.
Adsuara apunta que al principio la pornografía infantil se empezó a perseguir porque era la grabación o la fotografía de un abuso sexual o de una violación de un menor. «Pero por qué se reguló en el 2015 la pseudopornografía infantil», señala. Se tipifica como un delito porque ese material puede pasar por real, e incita al consumo de pornografía infantil. «El daño, es tan realista que parece real», sentencia. «Y es realista porque la gente piensa que es real».
Además, se suma a esto otro gran problema con esta función de la IA, y es que entorpece la labor de los que intentan encontrar a las víctimas reales de los pederastas. Son unos recursos y un tiempo precioso que se malgasta en identificar a unas víctimas infantiles que en realidad no existen.
Un mundo de nuevos dilemas: usarlo o no usarlo
Precisamente, los encargados de cazar a pederastas usan la IA, pasando de ser una tecnología perversa a ser una aliada. Es el caso paradigmático de una ONG holandesa «Terre de hommes» que lleva perfeccionando desde 2013 el uso de una asistente virtual con IA para atrapar a pederastas llamada 'Sweetie'. Se trata de una niña filipina virtual de diez años.
Durante las diez primeras semanas, más de 20.000 depredadores sexuales de 71 países contactaron con Sweetie, creyendo que era una niña real para pedirle que realizara favores sexuales frente a la webcam. Un cebo digital que ha conseguido que más de mil pedófilos fueran identificados. Pero cómo conseguimos acercarnos a los pederastas, cuando en muchos casos piden material que intercambiar.
En la Darknet, se usa lo que llaman la «prueba de castidad», supone subir material de abuso infantil para poder entrar y conocer la identidad de los pederastas. De ahí que la policía alemana, anunciase en 2020, que iba a usar pornografía infantil generada con AI para hacer progresos en sus operaciones encubiertas que les llevara a identificar a los criminales.
MÁS INFORMACIÓN
Avisos
Al final el FBI hacía una advertencia a todos, estas imágenes y vídeos que están en la dark web pueden pasar fácilmente a estar en «redes sociales, foros públicos o sitios web pornográficos». La IA que genera imágenes a partir de simples mensajes de texto están mejorando continuamente en calidad, personalización o accesibilidad. Por tanto, estamos ante un abismo que da vértigo, pero sirve para permanecer alerta.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete