Source: The Conversation – (in Spanish) – By Elías Manuel Said Hung, Catedrático de Ciencias Sociales y Jurídicas, UNIR – Universidad Internacional de La Rioja
En las grandes plataformas, los mensajes de odio se multiplican debido a que los algoritmos premian el contenido más emocional y polarizador. De hecho, la creciente crispación política ha disparado estos ataques en las redes sociales.
Buena parte de la investigación existente hasta la fecha se ha centrado en contar cuántos mensajes de odio aparecen en momentos de tensión, como la pandemia o unas elecciones determinadas. Sin embargo, apenas se ha estudiado por qué tantos logran superar los filtros y siguen visibles durante años. Esos mensajes quedan como “nodos latentes” que podrán reactivarse en cada nueva crisis.
El ecosistema digital difunde el odio, impulsado por los “me gusta” y los retuits, no por su verdad ni por su valor ético. El resultado es una erosión lenta, pero profunda, de la democracia y de la convivencia pacífica.
Varios investigadores de Hatemedia, hemos llevado a cabo un estudio a través del cual queríamos poner de manifiesto si el odio en español es eliminado de la red X y, en su caso, los motivos por los que esto se produce.
Para entender mejor el contexto resulta útil tener en cuenta los experimentos del Stratcom (el Centro de Excelencia en Comunicaciones Estratégicas de la OTAN), realizados desde 2021, como este realizado en 2025.
Con apenas 252 euros se compraron interacciones para difundir miles de mensajes de desinformación y odio para medir su alcance y permanencia. Tras cuatro semanas en las redes, seguían más del 84 % de mensajes de TikTok, 99 % en Vkontakte, el 43,41 % en X o el 84,03 % de Instagram.
Cómo construimos el análisis
En el estudio realizado partimos de 2,1 millones mensajes en X, emitidos como respuesta a contenidos publicados entre 2021 y 2022 en cinco medios de comunicación españoles –20 Minutos, ABC, La Vanguardia, El Mundo y El País–. Nuestro experimento se basó en el seguimiento de 9 894 mensajes de odio, recabados durante el período antes mencionado, durante los meses de noviembre y diciembre de 2024. Dichos mensajes fueron clasificados en cuatro intensidades y en varios tipos.
El objetivo era saber cuánto odio sobrevive en X y qué factores influyeron en su eliminación.

Imagen cedida por los autores., CC BY-NC
Hallazgos que cuestionan supuestos
Los resultados obtenidos nos mostraron que solo el 12 % de los mensajes de odio (1 170) fueron eliminados. El 88 % restante (8 724) seguía visible a los 2-3 años.
También observamos cómo la intensidad del mensaje apenas influye en su supervivencia. Las amenazas más graves, de nivel 4, se borraron incluso menos (11,54 %) que los comentarios incívicos de nivel 1 (12,11 %).
Lo que más pesó en la eliminación fue el tipo de odio: se borraron más mensajes de odio general (12,54 %), misóginos (11,97 %), sexuales (11,14 %) y xenófobos (11,10 %) que políticos (10,96 %).
También observamos diferencias según el medio. Los comentarios de odio recogidos en torno a medios informativos como ABC y La Vanguardia se eliminaron con más frecuencia (entre 14 % y 15 %), mientras que los asociados a 20 Minutos fueron los que menos (9 %).

Imagen cedida por los autores., CC BY-NC
Los mensajes que permanecían activos presentaban más interacciones y mostraban emociones más intensas, como la ira. Así, los mensajes más virales, emocionales y ligados a la política tenían más probabilidad de seguir presentes en X.
Que estos mensajes permanezcan en las redes los convierte en “durmientes”, listos para ser reutilizados periódicamente en protestas, campañas o elecciones. Esto tiene la finalidad de normalizar prejuicios y estereotipos. Mientras, los emisores de estos mensajes se aprovechan del contexto comunicativo digital del momento. Se trata de un escenario donde el silencio de algunos usuarios por miedo a sufrir ataques favorece el empobrecimiento del debate público, lo que debilita la democracia.
Rumbo a mejores estrategias
Estos datos nos ayudan a mostrar cómo lo viral y lo emocional prevalecen sobre cualquier otro aspecto. Ni siquiera parece importar la intensidad, aunque sea amenazante, para eliminarlos.
Nos encontramos, por tanto, ante una puerta abierta a la manipulación –además, muy barata– que persiste en el tiempo (el 88 % tras tres años).
No le faltaba razón al presidente de Francia, Emmanuel Macron, cuando el pasado mes de febrero expresó en el AI Summit de Nueva Delhi que la libertad de expresión en línea puede ser “una porquería” si no hay transparencia algorítmica total cuando se priorizan las interacciones tóxicas sobre la verdad y la democracia. Dicho de otro modo: la libertad sin responsabilidad es imposible.
El reto central es siempre el mismo: evitar que quienes mienten o dañan acaben limitando la libertad de expresión de quienes critican con argumentos. Los filtros son imprescindibles, pero también pueden ser peligrosos si se aplican mal.
Como mínimo, es clave que el odio ya detectado y confirmado se retire. Para ello resulta imprescindible impulsar sistemas de moderación híbridos. Es decir, que sean capaces de combinar la gestión humana con el apoyo de inteligencia artificial. Y esto, especialmente, frente al odio más sutil: el de baja intensidad (que no llega a ser insultante ni amenazante, pero que es incívico o malintencionado). Esos son los mensajes que, poco a poco, llevan a la polarización social.
Los medios de comunicación también tienen un papel clave. Estos actores necesitan buenos protocolos editoriales, alertas preventivas frente a la desinformación y contranarrativas basadas en la empatía. Y, por parte de los usuarios, hace falta una educación digital que fomente el pensamiento crítico y el contraste de la información con fuentes fiables.
Nuestro estudio muestra que el odio persiste porque el sistema actual lo hace rentable. Cambiarlo no depende solo de mejores marcos legales ni de un mejor algoritmo. Se necesita también tomar decisiones colectivas adecuadas. Por ejemplo, que prioricen la dignidad y ética por encima del rendimiento de los contenidos. Si no lo hacemos, los mensajes “durmientes” seguirán marcando la agenda del debate público.
![]()
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.
– ref. El odio que no desaparece: cómo miles de mensajes siguen activos en X años después – https://theconversation.com/el-odio-que-no-desaparece-como-miles-de-mensajes-siguen-activos-en-x-anos-despues-276692
