A menudo, las cuentas que publican o difunden mensajes de forma automática son utilizadas como herramientas de desinformación en Twitter. Conoce para qué son usadas y cómo desenmascararlas.
Hace poco, un par de ‘bots’ de Twitter se colaron en un noticiero de la televisión nacional. En un debate sobre la viabilidad de una candidatura presidencial, los productores del informativo decidieron poner en pantalla dos opiniones que, muy probablemente, no venían de usuarios ‘de a pie’, sino de cuentas en Twitter programadas para influir en la conversación.
Voy a comentar una curiosidad sobre el uso de bots que observé en el noticiero RCN del medio día, ojalá sirva a periodistas y otros.
— James Diomedes (@yoresongo) March 26, 2018
Los ‘bots’, cuentas automatizadas que pretenden simular el comportamiento de una persona en redes sociales, han sido parte del paisaje en Twitter hace muchos años. Se han usado para muchos fines, no todos ellos reprochables: hay bots que anuncian noticias, hacen chistes o agregan contenidos valiosos.
Por supuesto, también existen los que se usan para desinformar y manipular. Como dice un artículo académico escrito por el investigador Emilio Ferrara y otros, “estos ‘bots’ confunden, explotan y manipulan el discurso en redes sociales con rumores, ‘spam’, malware, desinformación, calumnias, o simplemente con ruido”.
Para disminuir el impacto de estos ‘bots’, Twitter anunció hace unos meses que iba a imponer nuevas restricciones a la actividad automática de algunas cuentas e impedir que un contenido se publique o retuitee masivamente de forma automática. “Estos cambios son un paso importante para asegurarnos de estar preparados para afrontar la actividad maliciosa que amenaza las cruciales conversaciones que ocurren en Twitter”, explicó el servicio en una entrada de blog.
Los ‘bots’ son una de las herramientas favoritas de los desinformadores, pues pueden llegar a ser bastante efectivos. Hay estudios que sugieren que los contenidos mentirosos son mucho más populares en Twitter que las noticias verificadas, especialmente sobre temas políticos.
Su uso más común es difundir masivamente ciertos mensajes o contenidos, con el objetivo de hacerlos parecer más populares e influyentes de lo que son en realidad. Así, logran “manipular la opinión pública, pues dan una impresión falsa sobre la popularidad de un candidato, la fortaleza de un régimen, o las relaciones internacionales”, como escribió el académico Samuel C. Wooley.
Si estos mensajes además son replicados por otros medios –como ocurrió en el noticiero— su difusión y ‘validación’ se disparan exponencialmente.
En una campaña electoral, estas técnicas buscan apoyar, de forma coordinada, el mensaje de un candidato o partido. “Los ‘bots’ se activan a partir de movimientos de personajes políticos representativos, y generan una especie de reacción en cadena”, explica Juan David Vargas, director de investigación en Acceso, una agencia que estudia los contenidos e interacciones en redes sociales.
Esta técnica es especialmente dañina cuando se usa para propagar información falsa o engañosa. Un estudio hecho por la Universidad de Indiana encontró que, al menos en Estados Unidos, las teorías de conspiración y las mentiras virales suelen ser difundidas principalmente por bots.
Siempre que una cuenta difunda desinformación de forma masiva, es muy probable que se trate un bot: Chencheng Bao, investigador de la U. de Indiana
Más allá de la política, estas técnicas de desinformación también pueden incluso afectar el precio de una acción en la bolsa de valores. En 2014, una empresa llamada Cynk logró disparar su cotización en un 200% por medio de una operación de ‘bots’ que logró mostrarla como una opción atractiva de inversión. Cuando la táctica fue desmontada, la acción fue suspendida de la bolsa y muchos inversionistas perdieron dinero.
Otras veces, lo que buscan los bots es atacar a quienes defienden una posición, o impedir que puedan comunicarse y difundir sus mensajes. Es común, por ejemplo, que algunos bots respondan automáticamente a usuarios que mencionan un nombre o palabra clave, o que ataquen en masa a otro usuario.
También se han reportado casos en los que un ejército de bots comienza a ‘inundar’ una etiqueta o palabra clave con el objetivo de impedir que quienes utilizan esa etiqueta puedan seguir dialogando, o de distorsionar las perspectivas que los usuarios interesados en el ‘hashtag’ terminan leyendo.
Como suele ocurrir con otras técnicas de verificación de información, hasta el momento no existe una herramienta que permita saber, con un 100% de certeza, si una cuenta es un ‘bot’ o no. La forma más certera de hacerlo es sumar varios indicios: si una cuenta cumple con varios de ellos, es más probable que no sea ‘de carne y hueso’. Así mismo, puede que una cuenta que tenga una o incluso varias de estas características no sea un ‘bot’.
Luego de ganar la confianza, el groomer procede al chantaje y pide...
Los participantes de este proyecto liderado por el Centro Gabo y la...
Una comunicadora estaba harta de las cadenas mentirosas sobre elecc...
©Fundación Gabo 2024 - Todos los derechos reservados.