Si alguna vez has administrado o participado de alguna manera en una comunidad online en la que se comparte información (un chat de WhatsApp por no ir más lejos), puedes darte una idea de la ingente tarea que es gestionar la conversación pública en Twitter.
A lo largo de estos años muchos equipos de expertos en derechos civiles, libertad de la información y políticas públicas han trabajado en ello. Pero desde que Elon Musk ha tomado las riendas, además de despedir a equipos enteros en estas áreas, ha tirado de un plumazo varios de estos esfuerzos.
Él mismo ha anunciado una amnistía general para las cuentas que estaban suspendidas por incumplir términos de uso. La moderación se ha automatizado y se prescinde de revisiones manuales. La nueva política de verificación de cuentas mediante el pago de Twitter Blue ha hecho que muchos promotores de la teoría de QAnon, seguidores de Trump y miembros de grupos de extrema derecha vean sus discursos amplificados, mientras investigadores y periodistas que verifican las desinformaciones de negacionistas son reportados y sus cuentas suspendidas. Varios estudios indican que los discursos de odio han aumentado. A 6 semanas del Twitter de Musk, la conversación ha cambiado.
Hablé con Chad Loder, un experto OSINT e investigador antifascista cuya cuenta ha sido suspendida varias veces por campañas masivas de denuncias falsas de extremistas, que me contó cómo funcionan estos grupos y qué está pasando en el nuevo Twitter.
En Newtral: La conversación cambia en Twitter: la moderación de contenidos se automatiza y aumentan los discursos de odio
[Archive ]