El diseño y política de X favorecieron narrativas incendiarias y racistas contra personas musulmanas y migrantes tras el ataque de Southport
Un reciente informe de Amnistía Internacional advierte que las decisiones algorítmicas y de diseño adoptadas por X contribuyeron a amplificar contenidos falsos y discursos de odio tras el asesinato de tres niñas en Southport, Reino Unido, alimentando un clima de violencia contra comunidades musulmanas e inmigrantes.
La red social X jugó un rol central en la propagación de desinformación y discursos de odio tras el asesinato de tres niñas en la localidad de Southport, el 29 de julio de 2024, según revela un informe técnico publicado por Amnistía Internacional. El estudio asegura que las decisiones de política y diseño algorítmico de la plataforma contribuyeron al aumento del riesgo de violencia contra personas musulmanas e inmigrantes en un contexto de tensión social extrema.
El 29 de julio de 2024, tres niñas de corta edad —Alice da Silva Aguiar, Bebe King y Elsie Dot Stancombe— fueron asesinadas y otras diez personas resultaron heridas a manos de Axel Rudakubana, de diecisiete años. Horas después del ataque, la desinformación y las falsedades sobre la identidad, religión y condición migratoria del perpetrador se extendieron por las plataformas de redes sociales, pero de manera prominente en X.
En las horas posteriores al ataque comenzaron a circular afirmaciones falsas sobre la identidad, religión y estatus migratorio del agresor. Etiquetas como #Stabbing (Apuñalamiento) y #EnoughisEnough (Ya basta) se utilizaron para difundir publicaciones islamófobas, mientras que cuentas conocidas por promover odio hacia inmigrantes y contenido islamófobo, como «Europe Invasion», registraron millones de visualizaciones.
Según el informe, «el análisis del código abierto de X —que fue publicado en marzo de 2023— demuestra que el sistema de recomendación prioriza contenidos diseñados para generar indignación, discusión y participación acalorada, sin evaluar el potencial de daño antes de su amplificación».
El sistema de clasificación algorítmica de X, revelado en el propio código fuente de X publicado en marzo de 2023, revela que las falsedades, con independencia de su lesividad, pueden priorizarse y aflorar con mayor rapidez que la información verificada. El modelo heavy ranke —sistema de aprendizaje automático que decide qué publicaciones se promocionan— prioriza la «conversación», independientemente de la naturaleza del contenido. Mientras una publicación genere interacción, el algoritmo no parece tener ningún mecanismo para evaluar el potencial de causar daño, al menos no hasta que un número suficiente de usuarios lo denuncien. Estas características de diseño abonaron el terreno a las incendiarias narrativas racistas que prosperaron en X tras el ataque de Southport.
Además, el informe destaca que la tragedia ocurrió en un contexto de cambios profundos en la política interna de X desde que Elon Musk asumió el control de la empresa en 2022. Bajo su dirección, se desmantelaron equipos de moderación de contenidos, se cerraron mecanismos de seguridad y se rehabilitaron cuentas previamente suspendidas por incitación al odio, entre ellas la del activista de ultraderecha Tommy Robinson.
Las publicaciones incendiarias de Robinson tras el ataque —como «el islam es una enfermedad mental»— tuvieron más de 580 millones de visualizaciones en las dos semanas siguientes. Elon Musk también contribuyó a amplificar mensajes violentos, como cuando comentó «la guerra civil es inevitable» sobre un video viralizado en ese contexto. Incluso respondió al llamado del primer ministro Keir Starmer a proteger a las comunidades musulmanas con un mensaje que relativizaba la situación: «¿No deberían preocuparle los ataques contra todas las comunidades?»
Esta falta de salvaguardas efectivas y la promoción sistemática de contenido incendiario representan una amenaza grave a los derechos humanos de comunidades históricamente marginadas. Amnistía Internacional informó que, a pesar de haber contactado a la empresa para solicitar explicaciones, no obtuvo respuesta.
El informe también destaca que, aunque marcos regulatorios como la Ley de Servicios Digitales de la UE o la Ley de Seguridad Digital británica establecen obligaciones de mitigación de riesgos sistémicos, «su aplicación efectiva es clave para que tengan impacto». Y señala que «sin una supervisión adecuada, las plataformas pueden seguir tomando decisiones que aumentan el alcance del odio y la desinformación, sin asumir responsabilidad por los daños causados».
Amnistía Internacional instó a que se refuercen las medidas de rendición de cuentas y se reformen las deficiencias del régimen de seguridad digital del Reino Unido para que plataformas como X no queden impunes. También recordó que algunos usuarios que difundieron contenidos racistas tras el ataque fueron arrestados y condenados por incitación a la violencia, y que el Parlamento británico, a través de un informe publicado en julio de este año, ya ha reconocido que los modelos de negocio de las redes sociales incentivan la desinformación.
Fuente: Amnistía Internacional
MÁS INFO

Liliana Mazure: «La privatización de Cine.Ar sería un vaciamiento del sector audiovisual argentino y un golpe a la soberanía cultural»
POR ESFERA REDACCIÓN | El sábado pasado, en radio Gráfica, la cineasta y expresidenta del Instituto Nacional del Cine y Artes Visuales (Incaa), Liliana Mazure, alertó en el programa «En qué nos parecemos» sobre el traspaso de las plataformas Cine.Ar Play y Cine.Ar Estrenos del Incaa a la sociedad anónima estatal Contenidos Artísticos e Informativos S.A., lo que considera un riesgo de cierre de la plataforma.

El declive del coeficiente intelectual en la era digital: reconfiguración cognitiva y tendencias globales
POR CLAUDIA ARANDA | El declive del coeficiente intelectual en la era digital: reconfiguración cognitiva y tendencias globales.

Se firmó el primer convenio de cooperación entre el Conicet y la prestigiosa Escuela de Frankfurt
POR ESFERA REDACCIÓN | El Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet) y el Institut für Sozialforschung (Instituto de Investigación Social), con sede en Fankfurt, suscribieron el primer convenio bilateral que renueva los estudios del cambio social en América Latina y Europa.


 
																			 
																			