El Gobierno se reunirá trimestralmente con plataformas digitales para frenar los discursos de odio en redes sociales

MADRID 22 Sep. Diario Dia –
La ministra de Inclusión, Seguridad Social y Migraciones, Elma Saiz, ha anunciado este lunes que el Gobierno mantendrá reuniones trimestrales con las principales plataformas digitales con el objetivo de reforzar la lucha contra los discursos de odio en redes sociales.
El acuerdo llega tras un segundo encuentro mantenido este lunes con representantes de Meta, YouTube y TikTok (X no ha podido asistir), a petición de las propias plataformas, en el que también se ha propuesto que España acoja una cumbre internacional sobre esta materia.
Según ha señalado Saiz en declaraciones a medios, la mejora en las herramientas de monitorización, incluyendo el uso de tecnología avanzada e inteligencia artificial, ha permitido una detección más eficaz de estos contenidos. No obstante, la ministra insistió en que la rapidez en la retirada de publicaciones sigue siendo un reto pendiente: «Un discurso de odio que permanece unos segundos en la red ya tiene un efecto multiplicador».
«Tenemos que ir juntos de la mano. Los esfuerzos y la colaboración entre instituciones, desde luego, es el camino para conseguir un resultado y que no tengamos que volver a lamentar y a condenar cuestiones como por ejemplo lo que pasó en Torre Pacheco este verano», ha recalcado la ministra.
La ministra, acompañada por la secretaria de Estado de Migraciones, Pilar Cancela, y el nuevo director del Observatorio Español del Racismo y la Xenofobia (OBERAXE), Tomás Fernández, ha entregado a las plataformas digitales la memoria anual de monitorización del discurso de odio del año 2024 elaborada por el OBERAXE.
EN 2024 LAS PLATAFORMAS RETIRARON UN 35% DE DISCURSOS DE ODIO
La memoria revela que el año pasado se notificaron un total de 2.870 contenidos de carácter racista, de los que el 35% fue retirado.
Estos se han incrementado durante 2025, en buena medida por la implementación de un sistema de rastreo basado en inteligencia artificial, el Sistema FARO, a través del cual OBERAXE ha detectado 614.833 contenidos reportables de enero a agosto, con un pico registrado en el mes de julio que llegó a los 190.000.
Los informes de OBERAXE señalan que el 65% de los contenidos reportados en 2024 y el 66% en la primera mitad de 2025 nunca fueron retirados de los canales de difusión de estas plataformas.
Según los datos del Observatorio, en 2024 la hostilidad predominante hacia las personas originarias del norte de África se concentró en el 35% del total de discursos de odio identificados, por detrás las personas africanas y afrodescendientes (24%) y la categoría genérica de personas inmigrantes (21%).
En referencia al grupo diana al que se dirige el discurso de odio, éste varía según la plataforma en la que este se difunde sin que se haya podido identificar ninguna relación causal. Así, en la plataforma X los discursos de odio principalmente van dirigidos a las personas del norte de África (30%) y en Facebook los discursos se dirigen con mayor frecuencia a inmigrantes en general (42%).
Entre las tipologías de discurso observadas en el informe de 2024, la deshumanización se encuentra presente en el 37% de las comunicaciones notificadas y en un 29% de los acontecimientos monitorizados se incita a la violencia con amenazas directas o indirectamente contra las personas migrantes o de origen extranjero. Además, un 15% de los casos incitan a la expulsión del colectivo y el 5% de los contenidos analizados elogian a quienes atacan al grupo diana, legitimando así la violencia y la discriminación.
Por su parte, los mensajes que deshumanizan a los grupos diana son más frecuentes en Instagram (33%) y Facebook (25%), donde también se observa una mayor presencia de contenidos que presentan al grupo objetivo como una amenaza para la ciudadanía. En el caso de X, el tipo de discurso más recurrente es el que desacredita en función de atributos personales, con una prevalencia del 33%.
A lo largo de 2024, las plataformas retiraron de sus canales el 35% de los contenidos que les fueron notificados, en su mayor parte lo hicieron tras ser reportados mediante la figura de trusted flagger o comunicante acreditado como fiable. De ese 35% de contenido retirado, el 4% se hizo en las primeras 24 horas, «periodo crucial para evitar la viralización y minimizar el impacto de propio discurso».
CL23
