Para combatir la desinformación hay que enseñarle a la gente cómo funcionan los algoritmos
En los cuatro países estudiados —cada uno con su propio entorno tecnológico, político y social— la comprensión de los algoritmos varió entre los distintos grupos sociodemográficos.
En una era dominada por las redes sociales, la desinformación se ha convertido en un enemigo común, infiltrándose en nuestros feeds y sembrando dudas y confusión. Con más de la mitad de los usuarios de redes sociales en cuarenta países encontrando información falsa o engañosa semanalmente es evidente que nos enfrentamos a una crisis de desinformación a escala global.
En el centro de este problema se encuentran los algoritmos de las redes sociales: esas misteriosas fórmulas computacionales que determinan el contenido que aparece en nuestros feeds. Estos algoritmos están diseñados para mostrar a los usuarios el contenido con el que es más probable que interactúen, lo que a menudo conduce a la proliferación de desinformación que se alinea con nuestros prejuicios y creencias. Un ejemplo destacado son los algoritmos de Facebook, impulsados por el lucro, que propiciaron una oleada de desinformación cargada de odio contra el pueblo rohinyá, contribuyendo así a su genocidio a manos del ejército de Myanmar en 2017.
Pero aquí está el quid de la cuestión: los algoritmos de las redes sociales siguen siendo, en gran medida, opacos para los usuarios. El mecanismo de alimentación de información impulsado por decisiones algorítmicas suele percibirse como una caja negra, ya que es casi imposible para los usuarios reconocer cómo un algoritmo llegó a sus conclusiones. Es como conducir un coche sin saber cómo funciona el motor. La falta de conocimiento del mecanismo algorítmico perjudica la capacidad de las personas para evaluar críticamente la información que encuentran. Ha habido una creciente demanda y atención al conocimiento algorítmico: comprender cómo los algoritmos filtran y presentan la información. Sin embargo, aún no está claro si el conocimiento algorítmico realmente ayuda a los usuarios de las redes sociales a combatir la desinformación.
Aquí es donde entra en juego nuestro estudio, publicado en la Revista de Misinformation de la Escuela Kennedy de Harvard. Como investigador de medios con amplia experiencia en el estudio de las medidas para contrarrestar la desinformación, dirigí un estudio para explorar cómo la comprensión de los procesos algorítmicos por parte de las personas influye en sus actitudes y acciones hacia la desinformación en cuatro países: Estados Unidos, Reino Unido, Corea del Sur y México. Con más de cinco mil participantes en la encuesta, los hallazgos arrojaron varias conclusiones.
En primer lugar, el estudio reveló que el conocimiento algorítmico aumentaba la vigilancia sobre la desinformación. Es decir, cuando las personas comprenden cómo los algoritmos filtran la información, cómo se utilizan los datos de los usuarios para crear algoritmos y cuáles son las consecuencias, ven mejor los posibles riesgos de alimentarlos y reconocen que estos pueden amplificar la desinformación. Esta constatación las impulsó a intensificar sus esfuerzos para combatir la desinformación. Sus acciones abarcaron desde dejar comentarios para señalar posibles sesgos o riesgos en publicaciones en redes sociales, compartir contrainformación u opiniones, difundir información que expone problemas en el contenido inexacto, hasta denunciar publicaciones de desinformación específicas en la plataforma de redes sociales.
Si bien este hallazgo es alentador, el estudio reveló además que el conocimiento algorítmico no se distribuye de manera uniforme entre las personas. En los cuatro países estudiados, cada uno con su propio entorno tecnológico, político y social único, la comprensión de los algoritmos varió entre los diferentes grupos sociodemográficos. Por ejemplo, en EE. UU., el Reino Unido y Corea del Sur las personas más jóvenes tendían a comprender los algoritmos mejor que las personas mayores. En Corea del Sur y México los niveles de educación marcaron la diferencia, ya que las personas con más educación tenían una mejor comprensión de cómo funcionan los algoritmos de las redes sociales. En EE. UU. y el Reino Unido, donde la polarización política ha alcanzado niveles altos en los últimos años, la ideología política fue el factor clave para explicar las diferencias en el conocimiento algorítmico, ya que los liberales tenían una mejor comprensión de los algoritmos de las redes sociales que los conservadores.
Además de la brecha de conocimiento algorítmico a escala nacional, el estudio también reveló que el nivel de conocimiento algorítmico difería según el país; los encuestados de EE. UU. demostraron la mayor comprensión, seguidos por los del Reino Unido, México y Corea del Sur. Curiosamente, si bien Corea del Sur presenta las tasas más altas de uso de internet y acceso a redes sociales entre los cuatro países, presentó el nivel más bajo de conocimiento algorítmico. Estas diferencias ponen de manifiesto una nueva forma de brecha digital, que trasciende la distinción binaria entre personas con acceso a internet y quienes no.
Con una distribución tan desigual del conocimiento algorítmico dentro y entre países, algunos pueden tener la capacidad de analizar y emitir juicios informados sobre la desinformación que presentan los algoritmos, mientras que otros pueden ser más susceptibles a las narrativas falsas o sesgadas que contienen. Es decir, quienes no comprenden cómo los algoritmos personalizan la información pueden pasar por alto el riesgo de quedar atrapados en filtros burbuja, lo que limita su acceso a diversos puntos de vista. Por lo tanto, creen erróneamente que todo el contenido en redes sociales es objetivo y preciso. En consecuencia, son más propensos a difundir desinformación y son más vulnerables a sus efectos negativos.
Estos hallazgos tienen implicaciones importantes para las plataformas de redes sociales, los legisladores, los investigadores y los educadores. Tradicionalmente, los esfuerzos para combatir la desinformación se han centrado principalmente en estrategias como la verificación de datos, la prevención de desmentidos o la moderación de contenido, pero la eficacia de estos métodos a menudo se ha cuestionado. Nuestro estudio sugiere que educar a las personas sobre el funcionamiento de los algoritmos y cómo se selecciona la información en las redes sociales podría ser una alternativa prometedora. Al comprender mejor los algoritmos, las personas podrían estar mejor preparadas para reconocer y responder a la desinformación. La ventaja de este enfoque es que podría ser ampliamente aplicable a diferentes poblaciones y eficaz a escala mundial. Además, nuestro estudio muestra que es posible que no todas las personas de diferentes orígenes sociales y culturales comprendan los algoritmos con la misma facilidad. Esto significa que es importante crear programas de alfabetización en algoritmos personalizados para satisfacer las necesidades de los diferentes grupos. De esta manera, podemos ayudar a garantizar que todos puedan navegar eficazmente por el mundo digital.
Las tecnologías en constante evolución, desde el metaverso hasta los deepfakes y ChatGPT, crean un entorno mediático donde la curación algorítmica de información falsa o poco fiable es más fácil que nunca. Es hora de priorizar una formación más amplia y profunda sobre algoritmos para empoderarnos y proteger a nuestra sociedad de los peligros de la desinformación. En definitiva, la lucha contra la desinformación es una batalla en la que todos debemos participar.
Artículo publicado originalmente por The Nieman Journalism Lab bajo una Licencia Creative Commons. Traducido del inglés por Esfera Comunicacional con la ayuda de una herramienta de inteligencia artificial.
Myojung Chung
Profesora adjunta de Periodismo e Innovación en Medios en la Universidad Northeastern y profesor visitante de Rebooting Social Media en el Centro Berkman Klein para Internet y Sociedad en la Universidad de Harvard.
VOCES

Varios países se unen para crear Latam GPT, un nuevo modelo de inteligencia artificial para América Latina
POR ALFREDO MORENO | El desarrollo de Latam, GPT reduce la dependencia de la región de soluciones externas y fortalece su capacidad para decidir sobre el uso de esta tecnología desde un enfoque regional y sostenible.

Odia a tu prójimo como a ti mismo
POR DANIEL BUSDYGAN | ¿Cómo se forja hoy la subjetividad política en la era digital? ¿Qué nos está enseñando el algoritmo sobre nosotros mismos?

Agencias de información y soberanía
POR FERNANDO BUEN ABAD DOMÍNGUEZ | Hoy no es posible hablar de soberanía sin gozar de soberanía informativa. Recordemos que la información es un derecho, no una mercancía. Quien controla la información, controla las conciencias y decisiones cruciales.

Desinformación, colonización mental y odio al periodismo
MIGUEL RODRÍGUEZ VILLAFAÑE | El Gobierno nacional pretende colonizar las mentes y generar odio, miedo y desesperanza en la sociedad, imponiendo un discurso único al servicio de un verdadero colonialismo mental que implica una ruptura de nuestra soberanía en todos los aspectos.