Hazte premium Hazte premium

¿Podrían los chatbots ayudar a diseñar el próximo virus pandémico?

En un experimento los chatbots sugirieron cuatro posibles agentes patógenos pandémicos, empresas que podrían ayudar a sintetizar el código genético de los patógenos y empresas de investigación contratadas que podrían juntar las piezas

La alerta de la OMS sobre la llegada de una nueva pandemia «con un potencial aún más mortal»

El cambio climático podría desencadenar la próxima pandemia

R. I.

Madrid

La inteligencia artificial (IA), como los 'chatbots', están acelerando y democratizando la investigación al proporcionar información comprensible y experiencia en muchos campos diferentes. Sin embargo, estos modelos también pueden brindar un acceso fácil a tecnologías de doble uso capaces de causar un gran daño: así, la IA podría ayudar a alguien sin conocimientos científicos e intenciones maliciosas a diseñar y ordenar un virus capaz de desatar una pandemia.

Lo apunta un artículo preprint publicado en la web arXiv en el que se autor, Kevin Esvelt, afirma que los sistemas de IA pronto podrían permitir que personas sin formación científica diseñen armas biológicas tan amenazadoras como las nucleares.

Esvelt, experto en bioseguridad del Instituto de Tecnología de Massachusetts (EE.UU.), encargó a un grupo de estudiantes que no cursaban la rama de ciencias a investigar si los chatbots podrían a ayudar a personas no expertas a causar una pandemia.

Y, en apenas una hora, los chatbots sugirieron cuatro posibles agentes patógenos pandémicos, empresas que podrían ayudar a sintetizar el código genético de los patógenos y empresas de investigación contratadas que podrían juntar las piezas.

Los chatbots sugirieron cuatro virus: el virus de la gripe H1N1 de 1918, un virus de la gripe aviar H5N1 modificado en 2012 para hacerlo más transmisible en mamíferos, el virus de la viruela variola major y la cepa de Nipah de Bangladesh. Aunque una búsqueda en Google muestra tal lista, en algunos casos, los chatbots incluso señalaron mutaciones genéticas ya identificadas que podrían aumentar la transmisión.

Estos resultados sugieren que los 'chatbots' harán que los agentes de clase pandémica sean ampliamente accesibles tan pronto como sean identificados de manera creíble, incluso para personas con poca o ninguna capacitación de laboratorio.

Hasta la fecha, llevar a cabo este tipo de bioterrorismo ha requerido un considerable conocimiento especializado. No solo el posible terrorista tendría que identificar un virus candidato como punto de partida, sino que también necesitaría sintetizar el material genético viral, ensamblar el genoma y mezclarlo con otros reactivos para «activar» un virus capaz de infectar células y reproducirse.

Pero ahora, tal y como explica en «Science» Jaime Yassif, directora del Programa Nuclear Threat Initiative, todos estos pasos se están volviendo más fáciles. Por ejemplo, las impresoras de ADN ya disponibles podrían permitir a los investigadores evitar las comprobaciones que la mayoría de las empresas de biología sintética realizan actualmente para garantizar que ningún pedido incluya material genético para posibles armas biológicas.

Además, la IA también describió técnicas que podrían utilizarse para ensamblar un virus a partir de su secuencia genética, así como los suministros de laboratorio necesarios y las empresas que podrían proporcionarlos.

Por último, los chatbots incluso sugirieron empresas que podrían estar dispuestas a imprimir material genético sin someterlo a cribado, y laboratorios contratados que podrían ayudar a juntar las piezas.

A pesar de que Esvelt duda que las sugerencias específicas hechas por los chatbots representen una gran amenaza pandémica, sin embargo, cree que el experimento pone de manifiesto cómo la IA y otras herramientas podrían facilitar que los posibles terroristas desaten nuevas amenazas.

¿Qué hacer? Esvelt señala en «Science» que limitar la información que los chatbots y otros motores de IA pueden utilizar como datos de entrenamiento podría ayudar.

Esta funcionalidad es sólo para suscriptores

Suscribete
Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación