Una auditoría revela que YouTube potencia los vídeos que «deshumanizan» a las personas migrantes

Los algoritmos de la plataforma aumentan la visibilidad de las «narrativas xenófobas», denuncia un análisis externo
La imagen más común de la búsqueda en YouTube de «migrantes». Título del vídeo: Migrantes africanos asaltan la frontera de Melilla, España.

Cómo muestran a los migrantes los vídeos de YouTube más potenciados por su algoritmo? Normalmente, en grandes masas (grupos de dieciséis o más) de personas anónimas (no se muestra su cara) y no blancas, que se encuentran cruzando una frontera terrestre o atravesando el mar en lanchas o barcos, en las que los hombres son mayoría y aparecen enfrentados a los militares o a las fuerzas de seguridad, tratando la migración como un problema. O lo que es lo mismo, «de forma predominantemente negativa» y «altamente deshumanizante», avisa la primera auditoría externa sobre el comportamiento de la plataforma de vídeo en este área.

El análisis ha sido realizado por Eticas, autora de otras iniciativas de este tipo como la auditoría externa de VioGén, el algoritmo de prevención de la violencia machista que utiliza el Ministerio del Interior, y colaboradora del Ministerio de Trabajo (de España) en el desarrollo de la herramienta de transparencia de los algoritmos laborales.

«La narrativa de la migración en los medios de comunicación tradicionales ha sido ampliamente estudiada, pero no así en las redes sociales, a pesar del rápido aumento de sus usuarios. Los estudios sobre las redes sociales confirman la misma tendencia narrativa: la migración como amenaza y la infrarrepresentación de los propios migrantes a la hora de comunicar sus propias historias», destaca la organización.

La representación de las personas migrantes como gente sin rostro que se enfrenta a las fuerzas de seguridad está relacionada «con el auge de los partidos de extrema derecha», recuerdan los autores. Una tendencia que se reproduce también en YouTube, ya que «el algoritmo de la plataforma de vídeo premia mensajes políticos xenófobos», revelan: «los retrata como una amenaza».

La segunda tendencia detectada es la que lleva a mostrar a los migrantes como «víctimas de las circunstancias». «Usar el marco de víctima en relación con los migrantes refuerza los estereotipos y prejuicios sobre los migrantes, como la idea de que son débiles o dependientes y carecen de autonomía», explican desde Eticas. La tercera conclusión principal es la ausencia de vídeos con mensajes positivos o exitosos sobre los migrantes entre los más recomendados por la plataforma a los usuarios.

YouTube tiene más de dos mil millones de usuarios en todo el mundo y el 75 % de los contenidos que consumen son recomendados por sus algoritmos. elDiario.es se puso en contacto con YouTube para incluir su posición sobre los resultados de esta auditoría externa, pero la compañía no ha hecho comentarios específicos sobre esta. «Nuestras políticas de incitación al odio prohíben estrictamente deshumanizar a las personas y eliminamos estos contenidos de nuestra plataforma», ha asegurado una portavoz.

«El sistema de recomendaciones de YouTube también muestra de forma destacada los contenidos fiables en la sección Ver a continuación y en los resultados de búsqueda. Evaluamos continuamente el aprendizaje automático de nuestro sistema de recomendaciones para garantizar la equidad entre los grupos protegidos», expresan las mismas fuentes sobre el funcionamiento de los algoritmos de la plataforma.

El sesgo positivo de los refugiados

Los autores llevaron a cabo el proceso de auditoría externa haciendo un análisis cuantitativo y cualitativo. En un primer paso analizaron los vídeos que YouTube mostraba a usuarios en diferentes localizaciones (Londres, como «contexto antimigración», y Toronto, como «contexto promigración»), tanto cuando se buscaban desde perfiles de personas nativas como de personas migrantes. Encontraron pocas diferencias: «La conclusión es que el algoritmo de recomendación de YouTube no diferencia entre usuarios nativos y migrantes en cuanto al contenido que recomienda».

«En lugar de priorizar el contenido que apoya o se opone firmemente a la migración y crea una dinámica de polarización entre los usuarios locales y los migrantes, el algoritmo parece enfocarse en retratar a los migrantes como deshumanizados y víctimas, independientemente de los antecedentes del usuario», desglosan.

En cambio, sí encontraron una «notable diferencia» en cómo trata el algoritmo los vídeos sobre «refugiados» respecto a los de personas migrantes. En este caso la inteligencia artificial de YouTube potencia vídeos que muestran a grupos más pequeños (de dos a cuatro personas) y «predominantemente caucásicos», «probablemente marcados por la guerra en Ucrania», recoge el análisis. Se muestran mucho más sus rostros y «son en su mayoría individuos reconocibles». Por el contrario, desparecen las narrativas de cruce de fronteras y de enfrentamiento con fuerzas de seguridad. El marco de víctima, no obstante, se mantiene.

Seguir leyendo en elDiario.es

También te podría gustar...

Deja un comentario