Periodismo e inteligencia artificial en América Latina

En un contexto de crecimiento exponencial de la inteligencia artificial (IA) y predominancia tecnológica en todas las esferas de la vida —económica, social, cultural, ambiental y política—, este Cuaderno de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) redactado por Natalia Zuazo explora el impacto de la IA en el periodismo desde una perspectiva crítica y ética, con especial atención a América Latina. Aquí una síntesis de la introducción.


RESUMEN

En un contexto de crecimiento exponencial de la inteligencia artificial (IA) y predominancia tecnológica en todas las esferas de la vida este texto explora el impacto de la IA en el periodismo desde una perspectiva crítica y ética, con especial atención a América Latina.

A partir de este enfoque se abordan desigualdades y desafíos inherentes a la implementación de la IA en la región. Con ello, se busca ofrecer una herramienta útil en la formación continua de estudiantes y profesionales de medios de comunicación. 

La primera parte, «Realizar Coberturas de Calidad en Noticias de IA», explora cómo los y las periodistas pueden mantener estándares de calidad frente al auge de la IA, abordando la competencia con el marketing, la influencia de la narrativa de ciencia ficción, y la aplicación de principios éticos de IA a las coberturas periodísticas. Se ofrecen herramientas y estrategias críticas para analizar sistemas de IA y evaluar sus impactos políticos, sociales y culturales.

En la segunda parte, «Uso de la IA en Redacciones de América Latina», se examina el crecimiento y los usos de la IA en redacciones, centrándose en su papel en la distribución de contenidos y el análisis de métricas. Se destaca la innovación en IA en los medios de la región.

En la tercera, «Mapeo de Herramientas de IA en redacciones latinoamericanas», se presenta un mapeo detallado de herramientas de IA desarrolladas por redacciones, en Argentina, Colombia, México, Paraguay y Perú. Se incluyen casos y soluciones para el chequeo de (des) información, detectores de discurso de odio, herramientas de posicionamiento en buscadores, inteligencia artificial generativa y técnicas para diferenciar deepfakes.

Por último, la parte cuatro , «Caja de Herramientas para el Periodismo en la Era de la IA», ofrece una serie de recursos disponibles en IA y automatización para diversas funciones periodísticas, desde transcripciones y edición de video hasta la creación de contenido y la evaluación de imágenes y audio.

Ilustración: ThisIsEngineering | Pexels

El término «inteligencia artificial» (IA) lleva casi siete décadas entre nosotros1 y los procesos de automatización son comunes en nuestra vida diaria. Pero, para las personas no especializadas y los medios de comunicación, el año 2023 será recordado como aquél en el que la IA se convirtió en una palabra utilizada masivamente.[1]El término fue acuñado en 1956 durante la Conferencia de Dartmouth (Hanover, New Hampshire, EE. UU.) por el informático John McCarthy, uno de los primeros teóricos de la inteligencia artificial, … Continue reading

Mientras la industria avanza, la prensa suele reflejar la rapidez de un crecimiento que parece inminente. Todos los días encontramos artículos y portadas que relatan, por ejemplo, cómo la IA generativa nos ayudará a realizar tareas cognitivas en nuestro trabajo. Sin embargo, son menos los casos de historias periodísticas donde se narren los dilemas de los y las trabajadoras en tiempos de IA o la adaptación de las diferentes industrias (arte, enseñanza, comercio, seguridad, etc.) a la nueva era. Tampoco es común ver reflejadas historias sobre los sesgos y problemas de madurez que hacen que algunas tecnologías que utilizan IA (por ejemplo, las de reconocimiento facial) aún no puedan ser aceptadas sin restringir los derechos fundamentales de las personas, o los riesgos de discriminación que conllevan los sistemas automatizados que utilizan las empresas para decidir entre posibles candidatos a un puesto.

Esas preguntas y esas respuestas deberían ser parte fundamental del periodismo como profesión y de las redacciones como espacio de pensamiento crítico. Preguntarse sobre las personas que están detrás de la creación de los algoritmos, los datos que se utilizan para entrenar los modelos automatizados y los fines últimos con los que se decide automatizar un proceso deberían ser preguntas vitales de la tarea de reporteo de esta época. ¿Este sistema está pensado para lograr mayor igualdad entre las personas o, por el contrario, está profundizando una desigualdad —social, económica, cultural, racial— existente?

Las historias de inteligencia artificial dejaron de ser prerrogativa de las y los periodistas que trabajan en la sección de tecnología. Hoy, con la automatización presente en casi todos los procesos de la economía, la política y la vida, existen sistemas de IA que operan en la salud, la educación, la seguridad pública y las cárceles, las fábricas, el arte, el consumo cultural (sin ir más lejos, cómo se ordena el contenido en las redes sociales) y más allá. De allí la importancia de tener un conocimiento de su funcionamiento, para luego traducir al público sus historias y sus impactos y oportunidades.

Un caso cotidiano del impacto masivo de la inteligencia en nuestras vidas son los sistemas de IA utilizados por las plataformas de redes sociales para priorizar, moderar, filtrar y hasta censurar contenidos. Las redes no son sólo espacios de consumo cultural, sino también de comunicación y libertad de expresión. Sin embargo, a través de mecanismos algorítmicos de jerarquización, recomendación, reducción de alcance, invisibilización, etiquetado, remoción de contenidos o suspensión de cuentas, personas y sistemas automatizados designados por estas empresas toman decisiones diarias sobre los contenidos de terceros publicados en las plataformas, y con esto inciden en el derecho a la información y comunicación de las personas. En algunos casos, ciertamente estas decisiones se realizan para prevenir delitos, pero en otros los límites y alcances de esta moderación privada de contenidos no quedan claramente establecidos.

La IA en América Latina y el mundo: Desigualdades y desafíos

Actualmente, son muy pocas las compañías tecnológicas que pueden crear sistemas de IA a gran escala. A las ya instaladas Google, Apple, Meta (ex-Facebook), Amazon y Microsoft, conocidas como Gafam, se suman actores como Open IA (Estados Unidos) y la empresa china ByteDance, dueña de TikTok. El dominio a nivel mundial de estas tecnologías se encuentra en manos de Estados Unidos y de China. Los factores geopolíticos, que alientan a la competencia, sumados a un flujo creciente de capitales para el desarrollo de estas ciencias aplicadas, contribuyen a una aceleración en la presentación de recursos y herramientas basadas en IA a un ritmo casi diario.

[…]

La concentración de poder en torno a las grandes compañías tecnológicas y el avance exponencial de estos sistemas de IA, que promueven su aplicación transversal en distintos rubros e industrias, es un llamado de atención para los Estados que deben procurar el bien común y proteger los derechos humanos de las personas. En ese sentido, la Unesco sostiene que, sin supervisión humana y acuerdos multisectoriales, estos cambios pueden ampliar las desigualdades económicas, sociales y culturales ya existentes.

La Unesco, reconociendo las repercusiones positivas y negativas profundas y dinámicas de la IA en las sociedades, los ecosistemas y las vidas humanas, aprobó en noviembre de 2021 la Recomendación sobre la Ética de la Inteligencia Artificial. Con consenso de 193 Estados, es un llamado a los sectores público y privado para «promulgar normas y regulaciones que aseguren el desarrollo beneficioso de estas tecnologías». Tiene el objetivo de promover el diálogo multidisciplinario para garantizar el respeto a los derechos humanos y diversidad cultural, así como también un acceso equitativo a los avances y los conocimientos, se trazan principios y marcos de acción específicos.

En marzo de 2023, durante la Reunión Latinoamericana de Inteligencia Artificial Khipu, más de treinta investigadores y especialistas de la región difundieron la Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina. Advirtieron que «no hay valor social en tecnologías que simplifican tareas a unas pocas personas generando alto riesgo para muchas otras, limitando sus oportunidades de desarrollo, su acceso a recursos y sus derechos». Y señalaron: «Coincidimos en que hay algo de antidemocrático si decisiones tan trascendentales no son tomadas por los órganos elegidos por los pueblos, y también en la necesidad de establecer mecanismos regulatorios (tanto a nivel nacional como internacional) para asegurar que las tecnologías de IA tengan un nivel de riesgo entendible y manejable, y principalmente, para garantizar que aporten valor social, y no sean soluciones que beneficien a unos pocos en perjuicio de las mayorías».

Las diferencias de recursos y poder entre regiones también son un desafío a tomar en cuenta mientras las tecnologías de IA se desarrollan. Los especialistas convinieron en que «La evaluación y mitigación de riesgos e impactos debe ser parte del proceso de diseño. Se deben implementar instrumentos para prevenir, detectar tempranamente e incluso suspender la implementación de tecnologías cuyos riesgos sean inaceptables».

Para reducir las brechas, la Unesco viene trabajando en el trazado de criterios y estándares comunes entre los países para hacer frente a una realidad que requiere atención y rapidez en la capacidad de gestión. Reconociendo que los países se encuentran en diferentes etapas de desarrollo de la IA, existen recursos como la Metodología de Evaluación de la Preparación (RAM, por sus siglas en inglés, Readiness Assesment Methodology), que abarca cinco dimensiones: Legal y Regulatoria, Social y Cultural, Económica, Científica y Educativa, y Tecnológica e Infraestructural, cada uno con indicadores cualitativos y cuantitativos para que cada Estado y sus diferentes estructuras implemente avances en temas de IA.

En esta coyuntura, una de las acciones de la Unesco en la región es contribuir a empoderar a periodistas y profesionales de la comunicación sobre el desarrollo de las tecnologías y su actual contexto, para poder comunicar sus implicaciones a la ciudadanía.

Así como el concepto de tecnología es tan amplio que se vuelve poco específico, podemos pensar en la inteligencia artificial como un centro que se ramifica en diversas disciplinas, con nuevos términos e implicancias tanto técnicas como éticas, morales y políticas. Cada aspecto de esta llamada «cuarta revolución industrial» trae consigo debates globales en torno a su funcionamiento y aplicación en puja entre empresas y Estados.

En 2019, la Oficina Regional de la Unesco para América Latina y el Caribe, publicó Manual de Periodismo y tecnología. Investigación, escritura, temas, seguridad. En texto buscó ser «una contribución para dar un salto cualitativo a la cobertura que hoy se ofrece, en promedio, sobre la internet, las redes sociales, los algoritmos y las nuevas tecnologías». A partir de allí, la Oficina, con el apoyo del Programa Multidonantes de la Unesco, y en conjunto con distintos socios estratégicos, lleva formados a más de diez mil profesionales en temas de tecnología e IA9.

Periodismo e inteligencia artificial en América Latina

NATALIA ZUAZO

Zuazo (1979) es licenciada en Ciencia Política por la Universidad de Buenos Aires, con especialización en Relaciones Internacionales, y tiene una Maestría en Periodismo por la Universidad Torcuato Di Tella. Es una voz reconocida en el ámbito del poder y la tecnología en América Latina. Sus libros, Guerras de Internet (2015) y Los Dueños de Internet (2018) tuvieron una huella significativa en el ámbito académico y del activismo en la región. Dedicó los últimos años a generar evidencia y cambios en políticas digitales desde la región. Lidera, en conjunto con la Unesco, un programa que lleva entrenados a más de diez mil periodistas y funcionarios latinoamericanos en tecnología, inteligencia artificial y derechos humanos. Asesoró en la creación de regulaciones como la Recomendación de Ética de Inteligencia Artificial (Unesco), las Directrices para la gobernanza de plataformas digitales (Unesco), la nueva Ley Nacional de datos personales (Argentina) y la política de datos personales para el covid (Argentina), entre otras. Fue consultora de Access Now y Privacy International. Su enfoque combinado de comunicación, investigación y teoría sólida la distinguen, y ha sido clave en llevar al gran público y a actores clave en la decisión política proyectos que abordan desde la moderación de contenido en redes sociales, pasando por cuestiones de desigualdad estructural en el poder de la tecnología, hasta el análisis de derechos humanos en la inteligencia artificial. Ganó el Premio ESET América Latina en Seguridad Informática (2016). Desde 2023, es una de las dos miembros latinoamericanas del Steering Comitee del Observatory for Democracy and Information.


LEÉ TAMBIÉN

.

Notas
Notas
1 El término fue acuñado en 1956 durante la Conferencia de Dartmouth (Hanover, New Hampshire, EE. UU.) por el informático John McCarthy, uno de los primeros teóricos de la inteligencia artificial, junto a uno de los padres de la ciencia de la computación, Alan Turing.

También te podría gustar...

Deja un comentario