La caja negra algorítmica: quién decide hoy lo que vemos y pensamos
La expansión de la inteligencia artificial y de las plataformas digitales transformó el modo en que las sociedades producen sentido, organizan la información y perciben la realidad. En un ecosistema donde los algoritmos jerarquizan voces, modelan conductas y condicionan la circulación simbólica, la transparencia tecnológica y la regulación pública aparecen como desafíos centrales para preservar la democracia, la diversidad cultural y la soberanía digital.

Las culturas no son entes abstractos, son tejidos vivos construidos mediante procesos de comunicación. Como bien señaló Roland Barthes, toda interacción humana se sostiene en la producción y el consumo de signos. Sin embargo, en pleno siglo XXI, esta dinámica ha sufrido una mutación importante: la producción de sentido ha dejado de ser exclusivamente humana. Hoy, nuestros signos son cocreados por inteligencias artificiales (IA) y distribuidos por infraestructuras digitales que operan a una escala que desborda nuestra capacidad de procesamiento. Estamos ante un ecosistema donde el signo y el bit se han vuelto indistinguibles o, al menos, con complejidad.
Ya no habitamos una realidad física simplemente «comentada» por lo digital; vivimos en una realidad híbrida. Nuestro entorno simbólico está mediado por el uso algorítmico, que no solo traduce nuestra cotidianeidad, sino que, en cierta forma, la predetermina. La percepción del mundo ya no depende únicamente de nuestros sentidos o del periodismo tradicional, sino de arquitecturas de software que deciden —en una «caja negra» inaccesible— qué es verdad, qué es relevante y qué debe permanecer invisible.
Esta mediación no es neutral. Cuando un algoritmo jerarquiza una voz o silencia otra, está ejerciendo un poder político. Por eso, la diversidad de miradas hoy no es solo un valor cultural, es también una cuestión de supervivencia democrática. Sin transparencia, quedamos atrapados en «cámaras de eco» que fragmentan la realidad hasta volverla irreconocible.
La producción de sentido dejó de ser exclusivamente humana: hoy los signos culturales son cocreados por inteligencias artificiales y distribuidos por infraestructuras digitales capaces de modelar nuestra percepción cotidiana.
Una tarea militantes y dirigencial seria es abrir la «caja negra» y poner en marcha aspectos regulatorios para las empresas digitales pues de no hacerlo se pone en peligro el pacto democrático de las sociedades.
La transparencia algorítmica no puede reducirse a la publicación de códigos fuente que nadie comprende. Necesitamos explicabilidad.[1]Explicabilidad o XAI es cuando se describe un modelo de IA, se conoce su impacto esperado y sus posibles sesgos. Ayuda a caracterizar la precisión del modelo utilizado. Para abrir la caja negra, el debate público debe exigir tres niveles de acción inmediata:
- Auditorías de impacto : Peritajes técnicos que detecten sesgos discriminatorios (de género, raza o clase) antes de que los sistemas se desplieguen.
- Organismos de control independientes : Una autoridad de supervisión digital con autonomía real. El «autocontrol» de las tecnológicas ha fracasado; la supervisión debe ser un esfuerzo colegiado entre la academia, la sociedad civil y el Estado.
- Trazabilidad : El derecho ciudadano a saber, en tiempo real, por qué un sistema nos recomienda un contenido específico. El «por qué veo esto» debe ser un derecho, no una curiosidad técnica.
El dogma de las plataformas como «conductos neutrales» ha muerto. Las grandes tecnológicas son curadores activos de la realidad social. Por ello, la normativa moderna debe migrar hacia la responsabilidad por riesgo sistémico. Las empresas deben ser legalmente responsables si sus algoritmos incentivan la desinformación masiva, la polarización extrema o dañan la salud mental de los jóvenes mediante mecánicas adictivas. La «diligencia debida» (duty of care)[2]La expresión duty of care se traduce comúnmente al español como deber de cuidado, obligación de diligencia o deber de protección. exige que las plataformas demuestren proactivamente que han mitigado los efectos nocivos de su modelo de negocios.
Los algoritmos no son neutrales. Cuando una plataforma amplifica, oculta o prioriza contenidos, ejerce una forma concreta de poder político que impacta sobre la democracia y la convivencia social.
Nuestro país vive una combinación de talento humano con parálisis institucional en el tema que estamos tratando.Mientras el mundo avanza con la AI Act en la Unión Europea[3]Regulación 2024/1689, más conocida como la AI Act, primera ley horizontal en el mundo dedicada exclusivamente a regular el desarrollo y uso de la inteligencia artificial. o planes de soberanía digital en Brasil y Chile, la Argentina exhibe una «morfología morosa.
Contamos con un capital humano técnico de vanguardia, pero el Estado no ha logrado consolidar una organización central con capacidad de sanción. La discusión local sigue fragmentada en guías éticas y recomendaciones que, aunque bienintencionadas, carecen de fuerza vinculante. Esta ausencia de un ente regulador nos deja en una situación de indefensión frente a empresas transnacionales.
Sin una soberanía digital real, la regulación de nuestros procesos simbólicos queda delegada a algoritmos diseñados en Silicon Valley o Beijing, bajo intereses ajenos a nuestra democracia. Como en tantos otros espacios de la convivencia criolla, necesitamos un pacto social para el BIT.
Reglamentar este espacio no es frenar la innovación. Por el contrario, es rescatar la libertad de expresión de las manos de la arbitrariedad tecnológica. La intervención pública no es censura, sino la infraestructura necesaria para que el entorno simbólico siga siendo genuinamente humano.
La discusión no pasa por frenar la innovación tecnológica, sino por construir marcos regulatorios que garanticen transparencia, responsabilidad y soberanía digital frente al poder de las grandes plataformas.
Si la comunicación es uno de los temas magnos de nuestra sociedad, el Estado argentino tiene una deuda urgente: garantizar que la transición hacia una sociedad mediada por la IA no erosione nuestra diversidad, sino que la potencie bajo un marco de justicia social, democracia de utilización y ética digital.
El futuro de nuestra cultura se juega en el código y es hora (algunos hace veinte años que venimos insistiendo en el tema de la necesidad regulatoria) de que la política tome la palabra.
La expansión de la inteligencia artificial y de las plataformas digitales transformó el modo en que las sociedades producen sentido, organizan la información y perciben la realidad. En un ecosistema donde los algoritmos jerarquizan voces, modelan conductas y condicionan la circulación simbólica, la transparencia tecnológica y la regulación pública aparecen como desafíos centrales para preservar la democracia, la diversidad cultural y la soberanía digital.
Osvaldo Nemirovsci
Diputado nacional (MC) por Río Negro. Presidente de la Comisión de Comunicaciones e Informática (2003/07). Ex coordinador general del Consejo Argentino de Televisión Digital (2009/2015). Director de Propuesta para la Industrialización y Recuperación de la Cultura Audiovisual (Pirca).→ Más artículos
SEGUIR LEYENDO

Palantir: cuando el software deja de ser herramienta para convertirse en poder
POR ENRIQUE DANS | Palantir convierte datos en poder. Entra en instituciones como proveedor tecnológico y termina siendo la infraestructura desde la que otros deciden.

La vigencia de Orwell en la era digital
POR MARCELO VALENTE | A casi ocho décadas de su publicación, la novela 1984 de George Orwell ha dejado de ser una advertencia del futuro para convertirse en el mapa de nuestro presente. En un mundo donde la frontera entre la ficción distópica y la realidad digital es cada vez más delgada, revisitar la obra maestra de Orwell es, más que un ejercicio literario, una necesidad para defender el pensamiento independiente y poder sostener que «dos más dos son cuatro».

Periodismo en tiempos de Milei: Por qué defender el Estatuto del Periodista es defender el derecho a la información
POR MIGUEL RODRÍGUEZ VILLAFAÑE | En un contexto de hostilidad creciente hacia el pensamiento crítico, la derogación del Estatuto del Periodista Profesional no es solo un golpe laboral, sino un ataque directo a la calidad democrática. Este texto analiza la urgencia de proteger la independencia informativa frente a la avanzada de la Ley de Modernización Laboral y las conclusiones del reciente Congreso de Federación Argentina de Trabajadores de Prensa (Fatpren).

Las juventudes y los algoritmos
POR FERNANDO PEIRONE | A diferencia de los millennials, los Z no intentan conciliar su vida con el pasado; simplemente dieron vuelta la página. Arrojados a una sociedad informacional sin el tutelaje de los adultos, los más jóvenes crean sus propios protocolos de supervivencia ante un mercado implacable y la intervención de los algoritmos.
Notas
| ↑1 | Explicabilidad o XAI es cuando se describe un modelo de IA, se conoce su impacto esperado y sus posibles sesgos. Ayuda a caracterizar la precisión del modelo utilizado. |
|---|---|
| ↑2 | La expresión duty of care se traduce comúnmente al español como deber de cuidado, obligación de diligencia o deber de protección. |
| ↑3 | Regulación 2024/1689, más conocida como la AI Act, primera ley horizontal en el mundo dedicada exclusivamente a regular el desarrollo y uso de la inteligencia artificial. |

