Censura digital: Cuando los algoritmos deciden quién habla

La semana pasada, Facebook censuró al Canal Trece de Colombia (Tv Andina), uno de los ocho canales regionales que hacen parte del ecosistema de medios públicos del país. El motivo: unos segundos de un partido de fútbol de salón transmitidos en vivo activaron el algoritmo de la plataforma, que decidió sancionar al canal durante varios días. Como resultado, Canal Trece quedó fuera de un espacio esencial para sus transmisiones.
La censura de Canal Trece no es un caso aislado. En 2023, Canal Capital, también colombiano, sufrió un bloqueo de varios meses por emitir 28 segundos de un partido de fútbol femenino, según denunció el Observatorio Latinoamericano de Regulación de Medios y Convergencia.
¿Qué sucede cuando los medios públicos son silenciados por decisiones privadas y automatizadas? La pregunta no es retórica; toca el núcleo de cómo entendemos la libertad de expresión en el siglo XXI.
Estos episodios revelan una peligrosa realidad: plataformas privadas como Facebook, cuya jurisdicción no debería sustituir la de un juez, están tomando decisiones que impactan directamente el derecho a la comunicación pública. Aunque Facebook es una empresa privada, su rol en la comunicación trasciende el ámbito comercial.
En Colombia, la Corte Constitucional ha dejado claro que la libertad de expresión es un derecho reforzado, especialmente en medios públicos que, por su naturaleza, representan un pilar de la democracia. Pero cuando una plataforma como Facebook decide bloquear a un medio, sin mediación judicial, se vulnera un principio básico del Estado de derecho.
Sancionar antes de preguntar
Lo más paradójico del caso es que Canal Trece poseía los derechos sobre el contenido que originó el bloqueo. Como titular legítimo de los derechos de transmisión, el medio público no infringió ninguna norma de propiedad intelectual. Sin embargo, Facebook procedió con la sanción sin realizar una verificación previa ni consultar si el canal tenía autorización para emitir el material.
Este proceder automatizado evidencia una grave falla del sistema: la plataforma actúa primero y pregunta después, dejando en desventaja a los afectados, que deben demostrar su inocencia tras el bloqueo, en lugar de que se valide la infracción antes de imponer una medida que afecta tanto su operación como el acceso del público a la información.
Desde Observacom consideramos que estas acciones podrían interpretarse como una «privatización de la justicia»; es decir, una delegación implícita de funciones judiciales a empresas que no están sujetas al control democrático. Y sus decisiones no solo afectan a los medios sancionados, sino que también pone en entredicho el acceso de los ciudadanos a una información diversa y plural.
El debate no es trivial. Juristas como Cass Sunstein han señalado que las plataformas digitales se han convertido en foros públicos donde se libra el debate democrático. Negar el acceso a estos espacios a un medio público no es una simple decisión comercial, es un acto político que redefine los límites de la comunicación y la justicia en la era digital.
En Colombia, la legislación es clara: ningún particular está facultado para sancionar a un medio de comunicación. Sin embargo, el vacío legal en el ámbito digital permite que gigantes como Facebook actúen con una discrecionalidad que roza la arbitrariedad. El caso de Canal Trece ilustra cómo la ausencia de regulación específica para plataformas digitales crea un terreno fértil para abusos.
Zeynep Tufekci, socióloga y experta en tecnología, advierte que la dependencia de plataformas privadas para la comunicación pública nos coloca en una posición de vulnerabilidad estructural. Este tipo de censura no solo limita el alcance de un medio; también restringe la capacidad de los ciudadanos para acceder a información crítica en tiempo real, como en transmisiones en vivo. El impacto de estos bloqueos se agrava cuando se trata de medios públicos, cuya misión es garantizar el acceso equitativo a la información.
Gustavo Gómez, director ejecutivo de Observacom, ha denunciado en múltiples foros que las plataformas digitales, lejos de garantizar un proceso justo y transparente, delegan estas decisiones a algoritmos automatizados. Según Gómez, estas empresas ni siquiera invierten en expertos o equipos humanos que puedan evaluar contextos específicos, como cuando se trata de medios de comunicación.
En cambio, un código opaco e incomprensible se convierte en policía y juez, sin considerar las implicaciones que esto tiene para la democracia. Este modelo no solo ignora las particularidades de cada caso, sino que deja en manos de una lógica automática y comercial la gestión de un escenario esencial para el debate público.
La falta de transparencia sobre cómo operan estos algoritmos exacerba el problema, debilitando la confianza en las plataformas como espacios para el ejercicio de derechos fundamentales. Al desconectar estas voces, se atenta contra un principio democrático fundamental: el derecho a estar informado.
No es solo Colombia quien enfrenta este desafío. En Brasil, la TV Pública fue suspendida por una situación similar. En Europa, el Parlamento Europeo ha debatido sobre los límites de la censura algorítmica, advirtiendo que los derechos fundamentales no pueden quedar supeditados a los términos y condiciones de empresas privadas.
En América Latina, la Red de Radiodifusoras Públicas ha denunciado que las reglas impuestas por plataformas como Facebook y YouTube ignoran las particularidades de los medios públicos, aplicando sanciones desproporcionadas que afectan su sostenibilidad y credibilidad. Estos bloqueos, aunque temporales, tienen efectos duraderos en la confianza del público y en la percepción de la libertad de prensa.
En conclusión, la censura de Canal Trece y otros medios públicos expone una tensión entre las libertades fundamentales y el poder de las plataformas digitales. Es urgente que Colombia y otros países adopten una legislación que limite el poder discrecional de estas empresas sobre los medios de comunicación.
La democracia no puede darse el lujo de permitir que algoritmos decidan qué voces merecen ser escuchadas. El debate no es solo legal, sino ético: ¿quién controla el acceso a la información en un mundo cada vez más digital?