El poder algorítmico amenaza los cimientos democráticos
La digitalización del Estado sin control democrático abre una zona gris donde los algoritmos deciden sin explicar y el escrutinio público queda fuera de juego. Experiencias recientes —como la de Suecia, con fallas catastróficas en sistemas automatizados hasta decisiones ocultas tras el código propietario— muestran cómo la opacidad tecnológica puede erosionar principios básicos de transparencia, legalidad e igualdad. El riesgo es claro: sin recuperar el control político sobre la infraestructura digital, la democracia se desliza hacia una burocracia oculta tras algoritmos que administran poder sin rendir cuentas.
Los algoritmos se han vuelto omnipresentes en nuestras sociedades. Pensemos en las tareas administrativas del diagnóstico médico, la asignación de alumnos a las escuelas o la determinación del derecho a la seguridad social y a las prestaciones laborales. Estas políticas públicas pueden mejorarse tanto en calidad como en eficiencia, pero también es obvio que las consecuencias de los algoritmos inexactos pueden ser desastrosas. Lo sabemos por la dura experiencia de casos en los que no se ha mantenido la transparencia ni el control. Se han puesto en riesgo vidas humanas, han caído gobiernos y la soberanía se ha cedido voluntariamente a organizaciones privadas no democráticas. Ya no podemos fingir que todo esto ocurre en una esfera digital distante. Sucede aquí mismo, en el corazón de nuestra sociedad.
La conexión permanente y la toma de datos que se deriva, busca la conversión de las vidas y relaciones en una relación de explotación, para generar ganancias. Se convierte en rentable toda la especie humana, mediante la colonización de datos. Es una tendencia determinante en la evolución del capitalismo. El colonialismo de datos es la captura y control de la vida humana[1]El costo de la conexión. Cómo los datos colonizan la vida humana y se la apropian para el capitalismo, de Nick Couldry y Ulises A. Mejías, Ediciones Godot, 2023.
El modelo de sociedad del conocimiento, motorizado por las oligarquías tecnológicas del Silicón Valley, configura el Estado digital actual como un modelo operacional que pretende que el comportamiento computacional como el comportamiento humano deben estar integrados en sus infraestructuras de tecnologías. En ellas, se trabaja con procesos describibles y sistemáticamente reejecutables formalizados mediante algoritmos y datos[2]Agoritmos + Datos = Programa.
Esta ingeniería es muy útil para el funcionamiento de tuberías hidráulicas, dispositivos de transmisión de datos, motores de automóviles y demás aplicaciones de la vida industrial y de transacciones comerciales y documentales.
Los especialistas de este sector dinamizan las innovaciones con sentido de mercado. S in embargo, cuando el comportamiento social y emocional de las personas es también describible (representable), calculable y programable estamos ante una creciente desconfianza en las políticas públicas que soportadas en algoritmos presentan riesgos que debilitan fuertemente la democracia.
Los países más avanzados y referentes en digitalización de los servicios del Estado a la población, caso Suecia y Estonia, muestran gran eficiencia en tiempos operacionales de las prestaciones públicas mediante plataformas digitales e IA, pero una creciente distancia emocional con las personas. Como afirma Robert Kurz en su trabajo La ignorancia de la sociedad del conocimiento. (2002), estamos ante la materialización de las visiones de terror de las modernas utopías negativas tecnológicas.
La promesa de eficiencia tecnológica y la «inocencia» del solucionismo tecnológico esconde un proyecto más profundo: la idea de un Estado reemplazado por algoritmos. Lo que queda en juego no es solo la privacidad de la población, sino la capacidad misma del Estado de conducir sus políticas en áreas vitales.
Con la transformación digital de la administración pública, la automatización de la toma de decisiones públicas y la creciente «datificación» de los sistemas de bienestar, se pone en riesgo los principios fundamentales de libertad de información en una sociedad democrática.
Cuando la administración pública se convierte en una caja negra[3]Sistema cuyo funcionamiento interno es desconocido para el usuario, mediante el uso de software propietario comercial, incluso para las tareas gubernamentales más básicas, la externalización de decisiones políticas a programadores y el ocultamiento de decisiones cruciales tras un código impenetrable, oscurece tanto la transparencia como supervisión pública. El resultado final de esta trayectoria, es una burocracia oculta tras algoritmos, fuera del alcance del seguimiento y control democrático.
¿Qué hacer?
El pasado 11 de noviembre, la Comisión de Ciencia, Tecnología e Innovación productiva de la Cámara de Diputados, presidida por el diputado Daniel Gollán, realizó la octava reunión con diecisiete diputados de los diferentes bloques de representación política para debatir el proyecto de ley marco normativo y de desarrollo de los sistemas de IA, proyecto que comenzó a desarrollarse a partir de 2024. El proyecto plantea un marco legal para el desarrollo, implementación y uso responsable de sistemas de IA en la Argentina y fue debatido y consensuado con representantes de universidades nacionales, fundaciones, cámaras y empresas del sector, y propuestas presentadas por diputados que integran la comisión y colegios de profesionales. El desarrollo de la reunión puede verse Para seguir el desarrollo de la reunión recomiendo ver este video.
El proyecto propone la creación un marco para desarrollar estrategias orientadas al cuidado de la implementación de la IA en el país, atendiendo a los siguientes objetivos:
- Proporcionar un marco de valores, principios y acciones para orientar la acción de los organismos estatales.
- Orientar y respaldar a las personas, grupos, comunidades, instituciones y organizaciones del sector privado a fin de asegurar la incorporación de los valores, principios y acciones de la presente ley.
- Proteger, promover y respetar los derechos humanos y las libertades fundamentales, la dignidad humana, la igualdad y equidad; salvaguardar los intereses de las generaciones presentes y futuras; minimizar el impacto ambiental; y respetar la diversidad cultural en todas las etapas del ciclo de vida de los sistemas de IA.
- Fomentar el diálogo multidisciplinario y pluralista entre todas las partes interesadas y la concertación sobre cuestiones éticas y morales relacionadas con los sistemas de IA.
- Promover el acceso equitativo a los avances y los conocimientos en el ámbito de la IA y el aprovechamiento compartido de los beneficios.
- Promover el desarrollo y la adopción de los sistemas de IA en el estado nacional y los sectores productivos del país que lo requieran.
El debate presenciado me lleva a las siguientes preguntas: ¿A quién beneficia que en la Argentina la implementación de aplicaciones y centro de datos para la IA continúe desregulada? ¿Por qué los diputados oficialistas expresan su necesidad de contar con más tiempo porque no saben que hay que regular? ¿Por qué no argumentan en el sentido de colaborar con un debate democrático y con fundamentos científicos y técnicos?
El Gobierno argentino presentó una supuesta megainversión de OpenAI y Sur Energy por valor de veinticinco mil millones para instalar un «data center para procesar IA» en la Patagonia Argentina. Dicha inversión está en el marco del Régimen de Incentivos para Grandes Inversiones (RIGI) que asegura jurídicamente la supuesta inversión por un período de hasta treinta años.
Estos centros de datos, al menos a escala actual, son actores relativamente nuevos en el sistema energético global. Se estima que su consumo eléctrico actual, 500 megavatios (MW) ascenderá a unos 415 MW teravatios hora (TWh), lo que representa aproximadamente el 1,5 % del consumo eléctrico mundial medido en 2024.
El RIGI exige un 20 % de bienes y obras a proveedores locales, condicionado a que exista oferta disponible y a «precio/calidad de mercado». No impone obligaciones robustas de transferencia tecnológica ni metas de empleo calificado o de servicios locales. El país pone la tierra, la energía y los beneficios fiscales, sin garantías de fortalecimiento industrial.
Detrás de las cifras hay un esquema que puede perjudicar seriamente los intereses nacionales y configurar en el sur latinoamericano La Potosí del siglo XXI.
Las tecnologías digitales o las conocidas tecnologías de informática y comunicaciones (TIC)) son fundamentales para el buen funcionamiento de las sociedades modernas, pero la forma en que actualmente se organiza su desarrollo y despliegue promueve la centralización económica y una dinámica donde «el ganador se lo lleva todo», que va en contra del interés público. De ahí la importancia de contar con herramientas legislativas que permitan cuidar los derechos soberanos y su población.
Dado el alto costo de desarrollar estas tecnologías, su relevancia y su huella ecológica, disponer de una ley marco de IA permitiría a la Argentina crear ámbitos de trabajo orientados a garantizar regulaciones y controles que promuevan el desarrollo sostenible de la IA. Trabajar con un horizonte de soberanía digital requiere de un plan para un modelo alternativo donde los Estados intervengan y diseñen instituciones públicas multilaterales con autonomía de gobiernos específicos que puedan proporcionar infraestructuras y servicios digitales esenciales como servicios públicos o bienes comunes construidos a través de la cooperación internacional. La potencia social, cultural, industrial y política de las tecnologías digitales y la IA no puede seguir regulada por «el mercado» o que Argentina continúe alineada la los intereses que promueve el gobierno de Trump.
La Recomendación sobre la Ética de la Neurotecnología, aprobada por los 194 Estados miembro de la Unesco en noviembre de 2025, constituye el primer instrumento internacional que define reglas globales para tecnologías que pueden leer, registrar o modular la actividad cerebral.
El documento reconoce oficialmente la existencia de los «datos neuronales» —información capturada directamente del sistema nervioso— y los ubica en la categoría más alta de sensibilidad, por encima incluso de los datos biométricos tradicionales. Según Unesco, este avance responde a que la actividad cerebral permite inferir emociones, rasgos de personalidad, estados mentales, intenciones o patrones cognitivos, incluso sin expresión verbal o física.
En palabras del organismo, la humanidad está ingresando en una etapa en la cual la mente se convirtió en «un espacio que requiere protección jurídica explícita». Según Unesco, la aceleración tecnológica desplazó el debate ético: el desafío ya no es «si la mente puede ser leída», sino quién controla esa capacidad y con qué autoridad para hacerlo.
Alfredo Moreno
Computador Científico. Director de Sistemas de la Universidad Nacional de Avellaneda (Undav) y Profesor TIC en la Universidad Nacional de Moreno (UNM). Integrante de la Red de Pensamiento Latinoamericano en Ciencia, Tecnología y Sociedad (Placts).
CONTENIDOS RELACIONADOS

Los países de la Unesco adoptan un marco ético global para las neurotecnologías
POR ESFERA REDACCIÓN | Los Estados miembros de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) adoptaron el miércoles 5/10 un marco normativo global no vinculante sobre la ética de las neurotecnologías, con «salvaguardias esenciales» para que estas sigan avanzando «sin vulnerar los derechos humanos».

Cathy O´Neil: «Cuando los algoritmos se apoderan de la administración y políticas públicas, el potencial de daño es ilimitado»
POR SANTIAGO LIAUDAT Y LUCÍA CÉSPEDES | Conocida mundialmente por sus estudios críticos sobre los efectos negativos de los algoritmos, Cathy O’Neil ha hecho de los datos una herramienta de activismo social para luchar contra el incremento de la desigualdad y el control social que, de manera oculta, promueve el «big data».

Armas de destrucción matemática
¿Qué sucede cuando le damos a la tecnología el poder sobre nuestras vidas, cuando los modelos algorítmicos toman decisiones de educación, salud, transporte, hipotecas y créditos bancarios?

Virgina Eubanks, la periodista estadounidense que advierte que los algoritmos nos hacen más pobres
POR MARTA MEDINA | La periodista Virginia Eubanks ha publicado La automatización de la desigualdad. Herramientas de tecnología avanzada para supervisar y castigar a los pobres (Capitán Swing) ,una investigación en la que muestra cómo la minería de datos incide en los modelos predictivos, incrementando la brecha social. Entrevistada por El Confidencial de España, Eubanks advierte acerca de las consecuencias que tiene confiar la toma de decisiones a sistemas informáticos que no contemplan las consecuencias de sus resoluciones en la vida de personas reales.

Una agenda nacional para las tecnologías digitales
POR OSVALDO NEMIROVSCI | Frente a un gobierno que erosiona el sentido de comunidad y vulnera el marco constitucional, volver a pensar el futuro digital no es un lujo, sino una urgencia democrática. Solo un proyecto de Estado —con jerarquía institucional y mirada inclusiva— permitirá que la inteligencia artificial y las tecnologías digitales se conviertan en herramientas para mejorar la vida de la población.


