«El pajarito no es neutral»: el gran desafío del Twitter de Elon Musk
Los sistemas de moderación, poco transparentes, se han usado como «arma» en la lucha ideológica de diversos grupos. Está por ver cómo el multimillonario, «absolutista de la libertad de expresión», cumple con su promesa de protegerla sin dar alas a los radicales ni espantar a los anunciantes
La masacre en Twitter, contada por los empleados despedidos por Elon Musk: «Caíamos como moscas»

La primera vez que a Marcelino Madrigal, experto en ciberseguridad, le cerraron su cuenta de Twitter, allá por 2013, fue porque denunció «más de 10.000 cuentas relacionadas con pornografía infantil en un año«, recuerda. Ya le había pasado antes con otras redes. »Contabas ... lo que ocurría y te echaban, así se acaba el problema. Tengo todos los perfiles que suspendieron guardados para que la gente pueda ver que yo no incumplía ninguna norma, simplemente reportaba lo que estaba ocurriendo. Era un problema enorme«. Años más tarde, subraya, el propio Twitter ha incorporado a sus informes de transparencia la lucha contra esta lacra. Solo en el último semestre de 2021 suspendieron casi 600.000 cuentas relacionadas con este delito. Este es, según la propia plataforma, uno de los motivos más frecuentes para intervenir perfiles, junto con el abuso y el acoso y la incitación al odio.
De hecho, este Quijote de internet vio cómo volvían a suspender su cuenta en 2019, cuando denunció que el sistema de reportes era vulnerable, ya que se podía denunciar cuentas suplantando u ocultando la identidad del denunciante. Había dado con uno de los grandes talones de Aquiles de la plataforma y uno de sus aspectos más discutidos: su sistema de moderación y cómo este afecta al difícil equilibrio entre la veracidad, el derecho al honor y la libertad de expresión.
El propio Elon Musk ha vuelto a poner el debate sobre la mesa al anunciar, tras comprar Twitter –nada menos que por 44.000 millones de dólares–, que había «liberado al pájaro». «La compañía ha tenido una caída masiva en su ingresos debido a los grupos activistas que presionan a los anunciantes, pese a que nada ha cambiado con la moderación de contenido y pese a que hemos hecho todo lo que hemos podido para apaciguar a los activistas. Tratan de destruir la libertad de expresión», tuiteó ayer el multimillonario. Por otro lado, el dueño de Tesla y Space X ha tratado de tranquilizar a los anunciantes diciendo que Twitter no va a ser «un infierno donde se puede decir cualquier cosa sin consecuencias». Y con unas elecciones a la vuelta de la esquina, ha insistido en el mensaje de su jefe de seguridad, que afirma que el 80% del trabajo del equipo de moderación no se ha visto afectado por los miles de despidos ejecutados el viernes.
«Simpáticos humanos»
Oficialmente, sobre el controvertido tema de la moderación, Twitter simplemente señala que tiene un equipo de soporte conformado «por simpáticos seres humanos de todas partes del mundo». Estos serían los encargados de revisar las denuncias realizadas por el resto de internautas. «También utilizamos tecnología que nos ayuda a detectar proactivamente y marcar tuits que incumplen nuestras reglas, antes de que necesites denunciarlos«. Hasta el momento, la 'app' tampoco ha desvelado información sobre el proceso concreto que siguen estos «simpáticos» humanos para decidir el castigo que merece el presunto infractor. Ni siquiera está del todo claro que sean los actores principales en el proceso de moderación. «Lo que creemos es que el algoritmo es el primero que filtra el contenido inadecuado. Luego, teóricamente, este pasa a ser revisado por personas. Hay muchos casos en los que se ha demostrado que las máquinas han acabado cometiendo grandes errores y eliminando publicaciones que no hacían ningún daño», explica Laura Cuesta, profesora de Cibercomunicación y Nuevos Medios en la Universidad Camilo José Cela.
Es el número de trabajadores que planea despedir Musk, aproximadamente la mitad de la plantilla. solo el 15% pertenecerían a moderación y seguridad
Cuesta, además, apunta que no son raros los casos en los que Twitter actúa contra contenidos inofensivos «en los que el internauta simplemente emplea la ironía, pero que acaban siendo interpretados como incitaciones al odio o a la violencia». Precisamente, el pasado febrero, la red social del pajarito tuvo que dar marcha atrás después de que su algoritmo comenzase a suspender cuentas en las que se estaba informando sobre la guerra de Ucrania.
El problema es que las herramientas de moderación, ideadas para ser usadas para el bien común, se han convertido en la práctica en un «arma» en la lucha ideológica de unos grupos contra otros, señala Madrigal. «El sistema tiene que tener unas reglas y algoritmos trasparentes y un sistema de apelación decente. Hasta ahora esto ha funcionado mal, ha sido lento y arbitrario», resume Mariluz Congosto, profesora de la Universidad Carlos III, que lamenta la evolución que ha vivido Twitter, que en 2011 fue la red de las reivindicaciones sociales y hoy es terreno abonado para las campañas de «desinformación e intoxicación».
Boicot al algoritmo
Lo sabe bien Monsieur de Sans-Foy, un perfil «conservador y poco dócil», que tras diez años en Twitter denuncia que fue objetivo de una de las «jaurías» que disfrutan con «la persecución ideológica organizada«. »Yo no insulto, lo mío es la ironía y no soy un perfil hostil, así que no creo que pudieran confundirme con un troll«, lamenta. Pero poco a poco empezaron a llegarle denuncias y pequeñas sanciones de días. Por uno en el que respondía con sorna algo similar a »toma bromuro« le acusaron de »incitación al suicidio«. Cuando un usuario le reprochó usar un pseudónimo y este replicó que en lugar de la cara podía »enseñarle el culo« le acusaron de »acoso o abuso«. Hasta que le expulsaron definitivamente y decidió que no volvería. «El pajarito de España no es neutral», lamenta indignado.
«En España hay un grupo de usuarios que se organizaban en un canal de Telegram llamado RedBirds, muy ideologizado, que llegó a tener de avatar la cara de Stalin, que se marcaba objetivos de gente que consideraban que no debían tener voz en redes sociales y los denunciaban de forma masiva», resume Guadalupe Sánchez, abogada y tuitera, a la que también le retiraron su cuenta, no verificada pero con más de 64.000 seguidores, por dos tuits: uno que contenía la palabra bragas y otro que mandaba a unas pizzas «a la hoguera».
«Twitter no puede censurar bajo el pretexto de crear espacios seguros. Los límites de la libertad de expresión los fija la ley»
Ella, en lugar de borrar los tuits 'prohibidos', mandó un burofax a la compañía denunciando que estaba siendo objeto de una campaña de acoso. Y la compañía le devolvió la cuenta asumiendo que había habido «un error». Ahora está preparando una denuncia contra Redbirds en la que también ha involucrado a Twitter. «Entendemos que el comportamiento de este grupo es constitutivo de acoso y que se ha cometido usando los instrumentos facilitados por Twitter, con la que hemos tenido comunicaciones formales en varias ocasiones y que no ha tomado ninguna medida», sostiene Sánchez, que considera «preocupante» el debate en torno a la libertad de expresión en redes sociales: «Una compañía no puede censurar bajo el pretexto de crear espacios seguros. Los límites de la libertad de expresión los fija la ley y los interpretan los jueces».
Congosto, que lleva desde 2009 analizando Twitter, sostiene que, hasta 2017 estaba «más escorado a la izquierda«, porque la gente asociada a esta corriente ideológica era más activa, »no tanto porque hubiera un sesgo como tal«. Pero en 2018, declara, la balanza empezó a equilibrarse con la aparición de cuentas de derechas que empezaron a funcionar de forma muy similar. Ahora, los extremos cada vez se parecen más.
Más allá de las batallas ideológicas, lo que sí está documentado es que las plataformas, en general, han sido más permisivas con determinados usuarios. Hace exactamente un año, 'The Wall Street Journal' compartía documentos internos de Facebook que demostraban que la red social de Mark Zuckerberg actuaba de forma más tibia con las infracciones realizadas por sus usuarios más influyentes. Asimismo, una investigación de 'Forbes' apuntaba que TikTok sería más permisiva con aquellas cuentas que tengan, como mínimo, cinco millones de seguidores. Posteriormente, la aplicación lo negó.
A la carta
En cualquier caso, para una empresa privada lo primero siempre son los criterios económicos y, después, los legales. O dicho de otra forma, evitar sanciones. «Y finalmente está la libertad de expresión, ya que si lo hace mal puede perder reputación«, plantea Ofelia Tejerina, abogada y presidenta de la Asociación de Internautas de España. La jurista apunta, no obstante, que tiene dudas sobre el funcionamiento de la tecnología de la red social y sobre los sesgos del equipo humano encargado de tomar decisiones. »¿Quién está programando al algoritmo para que tome decisiones y cuál es el criterio legal que utiliza para eliminar contenidos y cuentas?«, se pregunta.
Tejerina también se muestra escéptica con los cambios prometidos por Musk, autoproclamado «absolutista de la libertad de expresión». Hace pocos días, el flamante propietario y director ejecutivo de Twitter afirmó que la 'app' está trabajando en la creación de un nuevo consejo de moderación «con puntos de vista diversos» destinado a aconsejar a la red social antes de que esta tome cualquier decisión relacionada con normas de contenido o restablecimiento de cuentas que han infringido la normativa de la plataforma. Una normativa que, probablemente, será alterada.
De acuerdo con 'Financial Times', el ejecutivo habría informado a los anunciantes de que quiere establecer varios niveles de moderación, algo similar a la clasificación según edades de los videojuegos y las películas. De este modo, el usuario podría escoger que aquel contenido que pueda resultar más ofensivo no sea visible. Precisamente, este cambio va en línea con lo que propone el jurista digital y expresidente de Red.es Borja Adsuara. «Igual que debe haber libertad de expresión, el usuario debe tener derecho de poder escoger relacionarse exclusivamente con aquellos internautas que se moderan y no insultan. Las redes sociales deberían incorporar esa posibilidad, pero limitándose después a la retirada de contenidos ilegales», explica Adsuara.

Precisamente, la UE lleva tiempo trabajando en una nueva normativa, llamada Ley de Servicios Digitales, que obligará a las grandes plataformas a comenzar a responder de forma legal por el contenido que los usuarios vierten en su interior. Con el nuevo reglamento, que se espera que comience a aplicarse el año que viene, las redes sociales y las plataformas de internet tendrán menos capacidad de decisión a la hora de eliminar o mantener contenidos online.
Para que sitios como Twitter puedan cumplir con su función y moderar el contenido sin coartar la libertad de expresión, el expresidente de Red.es señala que lo ideal, en el caso de la UE, sería conseguir que «entre los jueces, que no pueden estar en el día a día, y las redes sociales, que sí lo están, se cree un organismo independiente formado por profesionales de la información y de la libertad de expresión»: «El objetivo sería que unificaran criterios y que esos sean los mismos para todas las redes sociales de acuerdo a las leyes. Así, se irán sentando precedentes. Las plataformas sabrán lo que tienen que eliminar y los usuarios lo que pueden publicar«.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete