_
_
_
_
_

La gran cizaña de los cíborgs

Al menos 30 países sufren la manipulación del debate público con perfiles fraudulentos en las redes sociales. Así es como los rebaños de trolls y bots intoxican la política

En el Brexit, más de 80 noticias de medios británicos incluyeron tuits de 'bots' que buscaban intoxicar.Vídeo: Jack Taylor
Javier Salas

Durante días acaparó la atención en el Reino Unido y en el resto de Europa. Un tejano seguidor de Trump usaba una foto del atentado de Londres para esparcir odio racista desde su cuenta de Twitter, @SouthLoneStar. Recibió el respaldo de miles de retuits, también cientos de miles de tuits que reprochaban su islamofobia y numerosas noticias que se hicieron eco de la polémica que había surgido en la red por ese comentario. Alcanzó, en dos años, más de 50.000 seguidores interesados por sus tuits contra Clinton, los musulmanes y a favor del Brexit.

Más información
La UE combate la máquina de propaganda del Kremlin
El oscuro papel de Facebook y Twitter como armas de manipulación política
Los pioneros de Facebook critican su deriva hacia la manipulación masiva
Economía de la atención: Esta notificación te está robando un pedazo de vida
La posverdad está en tu cerebro

Otra cuenta estadounidense, @TEN_GOP, amasó 130.000 seguidores gracias a sus soflamas pro-Trump, ultracristianas, militaristas y contrarias a los medios y a los antifascistas. Sus palabras fueron compartidas entre sus seguidores por figuras de la derecha mediática de EE UU y llegaron a la esfera más cercana del presidente Trump: su hijo Donald, su consejero de Seguridad Nacional, su jefa de campaña... todos le retuitearon. Distintos medios, como The Washington Post y Los Angeles Times, citaron sus tuits como ejemplo del pensamiento conservador.

Pero @SouthLoneStar no era tejano. Y @TEN_GOP no había estado nunca en EE UU. Eran dos de los millones de cuentas fraudulentas manejadas desde Rusia, en la más famosa granja de trolls del planeta: la Internet Research Agency (IRA). Una entidad respaldada por el Kremlin que se dedica a desinformar e intoxicar a escala global. Su método: pastorear las redes sociales. Su logro: manipular el debate público.

Pero no son solo los rusos. Al menos en una treintena de países los gobiernos emplean "ejércitos de formadores de opinión" para difundir sus ideas, impulsar sus agendas y contrarrestar las críticas en las redes sociales, según el informe publicado la semana pasada por Freedom House. En algunos casos se trata de ejércitos reales, como los dos millones de comentaristas que China tiene contratados para inundar noticias, redes y foros. De los 65 países analizados (España no está entre ellos), en al menos 20 se identificó el uso coordinado de redes de bots (cuentas automatizadas) para influir en el discurso político. Además, se pudo documentar ejemplos prominentes de noticias falsas sobre elecciones o referendos en al menos 16 países.

"Los gobiernos ahora están usando las redes sociales para reprimir la disidencia y promover una agenda antidemocrática", denunció Sanja Kelly, directora del proyecto, en la presentación del informe. Kelly explicó que este tipo de manipulación es más difícil de detectar y de combatir que otros tipos de censura, como el bloqueo de webs. Frente al cierre de una página se puede buscar un plan B, sembrar la confusión es más eficiente.

De media, cada bot recibió cinco retuits de cuentas reales, es decir, cinco humanos compartían el contenido generado por un robot creado para contaminar

Los bots también hablan español: uno de los primeros en usarlos masivamente fue el presidente mexicano Enrique Peña Nieto, antes de llegar al poder, con los populares Peñabots. Luego llegó la oposición venezolana, pionera en su país en el uso de estas herramientas, a la que ya se ha sumado con fuerza el gobierno de Maduro. Y aunque el informe no la incluye, es un problema que también afecta a España y mucho. Un colectivo de investigadores, @BotsPoliticosNo, realizó minuciosos análisis que desvelaron redes de bots fraudulentos y perfiles falsos en el entorno de todos los partidos políticos durante 2015 y 2016, especialmente el PP, además de colectivos catalanes contrarios a la independencia. Y en el sumario de la Operación Púnica, por ejemplo, figura que Esperanza Aguirre contrató una red de 45.000 perfiles falsos de Twitter, como publicó Eldiario.es, y también Florentino Pérez. Pero aquellos movimientos eran burdos, básicamente millares de perfiles replicando mensajes para conseguir apariencia de popularidad, difamar al adversario y quizá lograr algún Trending Topic (los temas más comentados, que visibiliza Twitter).

"Ahora tiene más fuerza, más repercusión, ha ido sofisticándose hasta hacerse tan sutil que resulta espeluznante", asegura Mariluz Congosto, investigadora de la Universidad Carlos III, en referencia a lo mucho que se han desarrollado estas artimañas. "Muchos son híbridos: generalmente son robots automatizados pero a veces escriben tuits más trabajados, como si cogiera las riendas una persona", explica Congosto en referencia a los llamados cíborgs, cuentas bots en las que también publican a mano para dar credibilidad, dirigir campañas y apuntalar sus intereses, y que ahora son el material más efectivo en las redes de intoxicación.

"Los gobiernos ahora están usando las redes sociales para reprimir la disidencia y promover una agenda antidemocrática", denunció Sanja Kelly

Hubo un tiempo en que lo esencial era llenar auditorios y mítines con autocares y bocatas. Hoy, si la audiencia se digitaliza, es natural que se automatice su gestión. Son baratos, fáciles de crear, cosechan datos, pueden usarse con distintos clientes a la vez, sirven para acosar, para deslegitimar, desmovilizar, generar ruido, fingir popularidad, silenciar al enemigo... Estas redes trabajan a tres niveles con el rebaño digital: los pastores, que son cuentas muy influyentes que marcan la conversación; los perros pastores que amplifican el mensaje y atacan a los rivales; y por último los millares de cuentas automatizadas que, como ovejas, se mueven balando hacia donde les indican, generando una falsa sensación de mayoría social. Más recientemente, se han detectado indicios de esta actividad hacia Alemania y España, como publicó EL PAÍS.

Estos rebaños no convencen a nadie, porque no es lo que pretenden. Lo explicaba Adrian Chen, uno de los periodistas que dio a conocer la IRA, en New Yorker. "El verdadero efecto", escribe, "no era lavarle el cerebro a los lectores, sino abrumar las redes sociales con una avalancha de contenido falso, sembrando dudas y paranoia, y destruyendo la posibilidad de usar Internet como un espacio democrático". Si los opositores quieren visibilizar sus críticas al Gobierno, este inunda la red con otros temas que sean tendencia, desde noticias bobas viralizables hasta medias verdades sobre sus políticas. 

En el sumario de la Operación Púnica, por ejemplo, figura que Esperanza Aguirre contrató una red de 45.000 perfiles falsos de Twitter

Quien controlaba a @SouthLoneStar no pretendía convencer, sino polarizar la conversación en torno al racismo, al odio y la xenofobia. Y lo consiguió. Más de 80 noticias de medios británicos incluyeron tuits de la pequeña muestra de 2.700 usuarios tumbados por Twitter por ser de la IRA, según The Guardian. Generalmente para criticarlos o mostrar el rechazo de otros usuarios, pero logrando así una atención inmerecida que permitía influir en la agenda.

"Los usuarios tienden a propagar información de baja calidad como las noticias falsas porque están inundados por ellas y tienen una capacidad de atención limitada", asegura Filippo Menczer, investigador de la Universidad de Indiana. Menczer es un pionero en la caza y captura de bots malévolos porque cree que son un problema para la democracia, que se basa en un electorado informado: "Los bots sociales son efectivos induciendo a las personas a creer y compartir reclamos falsos, manipulando la información a la que están expuestos". Esto se logra, explica, creando la falsa impresión de que muchas personas comparten una opinión o poniendo en jaque los sesgos cognitivos y sociales de las personas. "Si puedes desinformar y engañar a los votantes, estás obstaculizando su capacidad de votar sobre la base de opiniones bien informadas", denuncia.

El modelo económico

Los medios y las plataformas que viven de la atención favorecen la difusión de veneno con su modelo de negocio. El spam político se convierte en clickbait mediático. Los periodistas viven pendientes de Twitter y sienten la necesidad de reflejar en sus medios los supuestos temas candentes, además de necesitar que el público pinche en sus noticias. Las plataformas viven del tiempo que pasan los usuarios en ellas gracias a contenidos que se propaguen y que generen participación. Además, aparecen nuevos actores, cabeceras digitales sin periodistas creadas exclusivamente para viralizar noticias inventadas, medias verdades e información extremista porque se consume con avidez y genera jugosos ingresos publicitarios sin gastar en sueldos. Muy poca gente lee la noticia antes de compartirla, muchas veces se propaga únicamente la captura del titular.

"Ahora tiene más fuerza, más repercusión, ha ido sofisticándose hasta hacerse tan sutil que resulta espeluznante", asegura Mariluz Congosto

En Michigan, uno de los estados clave en las elecciones que auparon a Trump, el producto de los "medios basura" tuvo más éxito en redes sociales que las noticias de medios profesionales, según un estudio de la Universidad de Oxford sobre la campaña (PDF). "Los bots difunden noticias falsas, inundan hashtags haciendo inútiles las conversaciones políticas en las redes sociales y fabrican un consenso manipulando métricas", asegura una de las autoras de ese trabajo, Lisa-Maria Neudert. Y añade: "No solo manipulan usuarios, también algoritmos de redes sociales, mostrando propaganda en las tendencias y en la parte superior del suministro de noticias". "Los bots se activan en momentos de mayor interés político: elecciones, referendos, crisis", explica esta especialista en bots de Oxford. "Pero lo que es más, buscan influir en la vida política cotidiana, sembrando confusión, descontento y escepticismo", resume.

Además, las redes sociales están obligadas por sus accionistas a crecer y crecer: el responsable de seguridad de Twitter advirtió en 2015 de la presencia de numerosas cuentas fraudulentas creadas por rusos, pero no se borraron porque perjudicaba el crecimiento de la compañía, según Bloomberg. Twitter reconoce ahora que detecta 3,3 millones de cuentas sospechosas cada semana y desde este verano se ha comprometido a hacerle frente al problema. "No es tan fácil detectarlos cuando escriben unas pocas oraciones propagandísticas el 20% del tiempo y copian actividad humana el otro 80%", explica Takis Metaxas, investigador en Wellesley y Harvard. "Comprender la propaganda, emplear el pensamiento crítico y darnos cuenta de nuestros propios prejuicios es la mejor manera de defender la democracia", reclama Metaxas, que descubrió en la campaña senatorial de 2010 uno de los primeros episodios de uso masivo de bots. Aquellos, dice, "fueron fácilmente detectables, pero desde entonces han mejorado mucho".

Son baratos, fáciles de crear, cosechan datos, pueden usarse con distintos clientes a la vez, sirven para acosar, para deslegitimar, desmovilizar, generar ruido, fingir popularidad, silenciar al enemigo...

Justo antes del Brexit, Rusia lanzó 150.000 cuentas falsas que inundaron la conversación en el Reino Unido con mensajes xenófobos, uno de los asuntos más espinosos del referéndum. De media, cada bot recibió cinco retuits de cuentas reales, es decir, cinco humanos compartían el contenido generado por un robot creado para contaminar. Después del referéndum del Brexit, una petición online que reclamaba su repetición tuvo que cancelarse porque 77.000 bots la ahogaron con firmas falsas. En EEUU, dos cuentas fraudulentas rusas convocaron y anunciaron en Facebook sendas manifestaciones frente al centro islámico de Houston: una islamófoba y otra en defensa de los musulmanes. Los dos grupos chocaron en la calle y los medios recogieron su enfrentamiento como ejemplo de la profunda división de los estadounidenses.

Cuando el Instituto de Internet de la Universidad de Oxford analizó a fondo este fenómeno en nueve países, no tuvo dudas: "Los bots utilizados para la manipulación política también son herramientas efectivas para fortalecer la propaganda online y las campañas de odio. (...) La propaganda informática es ahora una de las herramientas más poderosas contra la democracia". Muchos de esos casos son de los gobiernos contra sus propios ciudadanos. Un dato de Sanja Kelly, de Freedom House: "En 14 países, los gobiernos que intentan combatir las noticias falsas irónicamente terminan restringiendo la libertad de internet". Las plataformas digitales están cumpliendo un oscuro papel en política y los bots (y los cíborgs) son solo una más de las herramientas.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Javier Salas
Jefe de sección de Ciencia, Tecnología y Salud y Bienestar. Cofundador de MATERIA, sección de ciencia de EL PAÍS, ejerce como periodista desde 2006. Antes, trabajó en Informativos Telecinco y el diario Público. En 2021 recibió el Premio Ortega y Gasset.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_