1,3 euros por 1.000 'likes': las interacciones falsas que contaminan las redes sociales
Visualizaciones, comentarios, seguidores... «Se puede comprar casi de todo», dicen los expertos, con servicios cada vez más sofisticados y 'a la carta'
La inminente batalla de Musk contra los bots: por qué quiere acabar con el 5% de Twitter
![Detectar estas prácticas no es fácil porque mejoran a medida que aumenta la vigilancia de las plataformas](https://s1.abcstatics.com/abc/www/multimedia/economia/2023/03/09/interaccionesfalsasredessociales-RZj0lAtCEGgnQx1VHzATo3I-1200x840@abc.jpg)
Basta una simple búsqueda en internet para encontrar decenas de páginas donde comprar interacciones para las redes sociales. Unas veces son seguidores, otras 'likes' e incluso comentarios. En cualquier caso, el objetivo es engrosar las métricas de manera artificial para aparentar una supuesta popularidad ... con la que alimentar el ego o el bolsillo. Todas las grandes aplicaciones sociales son víctimas de un negocio en la sombra que hace pasar por orgánico aquello que, en el fondo, se ha generado previo pago. Las propias plataformas afectadas están dando pasos para estrechar el cerco sobre estas prácticas que contaminan el mundo digital, aunque no es una tarea fácil ya que, al mismo tiempo que perfeccionan sus métodos de vigilancia, las empresas que ofrecen los servicios buscan fórmulas para esquivar los controles.
A día de hoy se desconoce el volumen total de interacción falsa, pero un reciente estudio realizado por investigadores de la Universidad Carlos III de Madrid (UC3M) y de Imdea Networks cuantifica el desembolso aparejado a estas farsas. Un millar de 'likes' en Instagram cuesta 1,3 euros, por 4,3 euros se ganan 1.000 seguidores, mientras que por 2 euros se logran 1.000 visualizaciones en YouTube o 1.000 reproducciones en Spotify. Servicios que conllevan cierto grado de personalización, como las reseñas en Google o en TripAdvisor, elevan la factura, pues cada texto viene a costar 1 euro. «Se puede comprar absolutamente de todo», asegura Juan Tapiador, catedrático del departamento de Informática de la UC3M y uno de los autores del informe.
Los actores que operan en esta industria subterránea se han sofisticado con el paso del tiempo para brindar opciones 'a la carta' a los usuarios. «Se pueden personalizar los servicios y escoger, por ejemplo, la localización geográfica de la cuenta que hará las interacciones, el rango de edad o el género. Todo ello da una idea del nivel de profesionalización que hay detrás y de la lucha contra los mecanismos de detección de las plataformas», dice Tapiador. Si los contenidos publicados están en castellano y la mayoría de los 'likes' o comentarios proceden de una región china, se encienden las alarmas, igual que si música en árabe es escuchada solo desde Sudáfrica. «Estos mercados se han adaptado para tener seguidores o comentarios que, desde el punto de vista geográfico, de género o de idioma, se mezclen mejor con lo esperado de forma orgánica», argumenta el experto. Se trata, al fin y al cabo, de dotar de credibilidad a las trampas.
Pudiera pensarse que estas artimañas se cometen solo a través de granjas de 'bots', pero en ocasiones se recurre a usuarios reales que reciben una cantidad de dinero a cambio de participar del esquema. Un caso típico, según Tapiador, son los 'likes' o escuchas en plataformas que han desarrollado mecanismos para detectar los clics automáticos. «La manera de sortearlo es convencer a un número muy elevado de usuarios para que hagan clic donde les dicen. Si cuentas con una masa de seguidores importante y tienes 'engagement', te apuntas y te dan de alta en un canal de Telegram donde van posteando los links. Te marcan unos objetivos, como hacer 100 'likes' al día», detalla acerca del funcionamiento.
Narseo Vallina-Rodríguez, profesor asociado de investigación en Imdea Networks y otro de los autores del trabajo, recuerda que siempre que exista un algoritmo que posicione al usuario y gracias al cual pueda obtener más o menos ingresos, habrá alguien que tenga incentivos de contaminar los datos que alimentan dicho algoritmo.
Estas actividades se extienden en la red como una mancha de aceite y, aunque las plataformas son cada vez más conscientes de la necesidad de ponerles coto, significa un desafío enorme. «Hay poca información porque digan lo que digan, pueden salir mal paradas, bien por molestar a los creadores de contenidos o bien por dejar en entredicho sus medidas de seguridad», indica el profesor. Su compañero también apunta a la falta de transparencia. «Las plataformas son muy oscuras con este tema, no explican qué algoritmos siguen o en qué supuestos lo hacen, pero desde luego es un problema para ellas. Ahora bien, no pueden ponerse extraordinariamente exquisitas porque el daño que sufren permitiendo un poco de 'fake engagement' es menor que si bajan los números de visualizaciones y de 'engagement' como consecuencia de equivocarse por exceso», advierte Tapiador.
Meta, el conglomerado de Mark Zuckerberg, no aporta datos oficiales sobre Instagram, pero sí sobre Facebook, donde estima que las cuentas falsas representaron en torno al 4-5% de sus usuarios activos mensuales en todo el mundo durante el cuarto trimestre del año pasado. En el último periodo disponible, de octubre a diciembre de 2022, se desactivaron 1.300 millones de cuentas falsas, el 99,30% encontrado y accionado por iniciativa propia mientras que el 0,70% a partir de lo reportado por usuarios.
Desde Hootsuite, líder mundial en gestión de redes sociales, recuerdan que Instagram, una de las redes en las que se compran más 'me gusta' y seguidores, se da cuenta de estas prácticas, por lo que si nota actividad sospechosa en la cuenta, la puede suspender o eliminar de forma permanente.
«Se pueden personalizar los servicios y escoger, por ejemplo, la localización geográfica de la cuenta que hará las interacciones, el rango de edad o el género»
Juan Tapiador
Catedrático del departamento de Informática de la UC3M y uno de los autores del informe
Quienes acostumbran a moverse en el sector hablan de un cambio de mentalidad. «Las plataformas al principio hicieron la vista gorda con los 'bots', pero vieron que les venía mal. Por un lado, viven de la gestión de información personal y, por otro, los usuarios son muy sensibles cuando ven comportamientos de 'bots' porque quieren interactuar con gente real. A pesar de que no cuentan sus mecanismos abiertamente, todas lo han incorporado a su agenda y tienen departamentos para limitarlo», afirma Marina Hernández, Content & Social director en Good Rebels, agencia de marketing digital.
Los algoritmos, además, han dejado de fomentar la visibilidad de los contenidos en base al número de seguidores de la cuenta que los publica. «En TikTok depende más de interacciones profundas, como compartidos, guardados o comentarios. Si la gente no interactúa con el contenido y quien lo visualiza son 'bots', la plataforma no considera que el contenido está teniendo recorrido», justifica. Lo mismo ocurre en Meta. «Sin interacciones profundas –continúa–, por muchos 'likes' o visualizaciones, no entiende que seas relevante y no enseña tu contenido».
No solo los gigantes de las redes sociales han tomado cartas en el asunto. Para evitar caer en trucos oscuros, los profesionales de este mundo evalúan un conjunto de métricas más allá del número de seguidores o de 'likes'. «Los que trabajamos en 'influencer marketing' tenemos herramientas de análisis de comunidades con las que sabemos, por ejemplo, dónde residen los seguidores y que suelen mostrar un porcentaje estimado de usuarios reales. Hay mucha sensibilización y las marcas intentan que las campañas sean menos frívolas y tengan arraigo en el relato del 'influencer', en la gente que le sigue y en la conversación que genera», dice. El cénit de este tipo de prácticas se alcanzó hace cuatro o cinco años, si bien, a juicio de Hernández, cada vez hay más webs que prestan servicios de interacciones falsas porque las redes sociales están en constante crecimiento y siempre hay demanda.
No es efectivo
Los usuarios que piensen que gracias a la contratación de estos servicios triunfarán en la red se llevarán un chasco, sobre todo a largo plazo. «Comprar interacción hoy es hambre para mañana», zanja Hernández, de Good Rebels. Desde Hootsuite se muestran igual de tajantes y aluden a las empresas que creen que así obtendrán ventajas. «Como revelan nuestros estudios, incluso los seguidores falsos de mayor 'calidad' tienden a ser cuentas aleatorias que no tienen nada que ver con tu negocio o audiencia. Nunca participarán en tus publicaciones, no se convertirán en clientes reales ni difundirán información positiva sobre tu empresa», ahondan. Un riesgo imposible de evitar si se tiene un número alto de seguidores comprados es que la tasa de participación sea muy baja, porque no interactúan con el contenido.
Por este motivo, fuentes de la compañía lo desaconsejan para construir un negocio de éxito, conectar con los clientes y generar un beneficio de la inversión de la estrategia de redes sociales. «Las marcas también investigan esta actividad –subrayan–, por lo que si se dan cuenta de que uno compra seguidores falsos, la credibilidad y la reputación se arruinarán. Esto también lo notan los usuarios regulares, que correrán hacia otro lado».
Lo que los expertos creen que es un gran coladero son las reseñas falsas. «Es más fácil mentir porque la interacción es solo una vez, dejas tu texto y ya está», expone Hernández. La startup RepScan se dedica a controlar la reputación online de sus clientes gracias a la detección del contenido falso y negativo. «El 20-30% de las reseñas que hay en internet son falsas y el 42% no fiable», recuerda el cofundador y CEO de la firma, Josep Coll, que asegura que, según un estudio interno, 10 reseñas positivas cuestan 79 euros y 170, 25 euros. Las negativas rondan los 5-15 euros cada una. RepScan ayuda a las empresas a lograr que sus clientes satisfechos les dejen reseñas positivas y vigila las susceptibles de ser 'fake'. «Si un negocio tiene dos reseñas diarias y de repente suben a ocho, es sospechoso. Normalmente se hacen desde el extranjero y en el lenguaje se nota», comenta. El equipo de la startup lo notifica a Google y, cuando hay implicación legal (por ejemplo, una reseña falsa e injuriosa), su tasa de eficacia es del 30-40%.
Startups, agencias de marketing digital y plataformas investigan soluciones para erradicar unas interacciones 'de mentira' que amenazan con desvirtuar el mundo digital.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete