¿La inteligencia artificial es una estafa?
La inteligencia artificial no es solo un conjunto de algoritmos, sino también un relato de poder. Entre la utopía y la distopía, el marketing y la técnica, Emily M. Bender y Alex Hanna desmontan en The AI Con (La estaba de la IA: Cómo combatir el bombo publicitario de las grandes tecnológicas y crear el futuro que queremos) la burbuja publicitaria que rodea a la IA. Su crítica apunta al corazón del negocio tecnológico: corporaciones que venden promesas de productividad y futuro mientras consolidan control, precarizan el trabajo y profundizan desigualdades sociales y ambientales.

La inteligencia artificial (IA) es tanto un término de marketing como un conjunto específico de arquitecturas y técnicas computacionales. La IA se ha convertido en una palabra mágica para que los emprendedores atraigan capital inicial para proyectos dudosos, un conjuro empleado por los gerentes para alcanzar instantáneamente el estatus de líderes con visión de futuro.
En tan solo dos letras, evoca una visión de fábricas automatizadas y señores robóticos, una utopía de ocio o una distopía de servidumbre, según el punto de vista. No se trata solo de tecnología, sino de una poderosa visión de cómo debería funcionar la sociedad y cómo debería ser nuestro futuro.
En este sentido, la IA no necesita trabajar para funcionar. La precisión de un gran modelo lingüístico puede ser dudosa, la productividad de un asistente de oficina con IA puede afirmarse en lugar de demostrarse, pero este conjunto de tecnologías, empresas y afirmaciones aún puede alterar el panorama del periodismo, la educación, la atención médica, el sector servicios y nuestro panorama sociocultural más amplio.
¡Pop, explota la burbuja!
Para Emily M. Bender y Alex Hanna, la burbuja publicitaria de la IA necesita estallar.
Bender es profesor de lingüística en la Universidad de Washington y se ha convertido en un destacado crítico tecnológico. Hanna es sociólogo y exempleado de Google, y actualmente es director de investigación en el Instituto de Investigación de IA Distribuida . Tras unirse para burlarse de los promotores de la IA en su popular podcast, Mystery AI Hype Theater 3000, han plasmado sus ideas en un libro dirigido al público general. Enfrentan la fuerza imparable del entusiasmo por la IA con un escepticismo inquebrantable.
El primer paso de este programa es comprender cómo funcionan los modelos de IA. Bender y Hanna hacen un excelente trabajo para decodificar términos técnicos y hacer accesible al público en general la «caja negra» del aprendizaje automático.
Abrir esta brecha entre la publicidad y la realidad, entre las afirmaciones y las operaciones, es un tema recurrente en las páginas de The AI Con, y uno que debería erosionar gradualmente la confianza de los lectores en la industria tecnológica. El libro describe los engaños estratégicos que emplean las poderosas corporaciones para reducir la fricción y acumular capital. Si el bombardeo de ejemplos tiende a crear confusión, persiste la sensación de estar ante una estupidez tecnológica.
¿Qué es la inteligencia? Un artículo famoso y muy citado, coescrito por Bender, afirma que los grandes modelos lingüísticos son simplemente «loros estocásticos», que se basan en datos de entrenamiento para predecir qué conjunto de tokens (es decir, palabras) tiene más probabilidades de seguir la indicación dada por el usuario. Al recopilar millones de sitios web rastreados, el modelo puede repetir «la luna» después de «la vaca saltó», aunque en variantes mucho más sofisticadas.
En lugar de comprender realmente un concepto en todos sus contextos sociales, culturales y políticos, los grandes modelos lingüísticos realizan una búsqueda de patrones: una ilusión de pensamiento.
Pero sugeriría que, en muchos ámbitos, una simulación del pensamiento es suficiente, ya que quienes la utilizan la alcanzan a medias. Los usuarios proyectan agencia sobre los modelos mediante el conocido efecto Eliza, suponiendo inteligencia a la simulación.
El mangement deposita sus esperanzas en esta simulación. Consideran la automatización como una forma de optimizar sus organizaciones y no quedarse atrás. Esta poderosa visión de pioneros frente a dinosaurios extintos es recurrente con la llegada de las nuevas tecnologías, y beneficia a la industria tecnológica.
En este sentido, cuestionar la «inteligencia» de la inteligencia artificial es una estrategia fallida, que desperdicia la inversión social y financiera necesaria para que esta tecnología funcione. «Comience con IA para cada tarea. No importa lo pequeña que sea, intente usar primero una herramienta de IA», ordenó el director de ingeniería de DuoLingo en un mensaje reciente a todos los empleados. Duolingo se ha unido a Fiverr, Shopify, IBM y muchas otras empresas que proclaman su enfoque de «IA primero».
Tecnología que cambia de forma
La estafa de la IA es más eficaz cuando se centra en el ecosistema que las rodea, más allá de las tecnologías, una perspectiva que, según he argumentado, resulta sumamente útil. Al comprender las corporaciones, los actores, los modelos de negocio y las partes interesadas que participan en la producción de un modelo, podemos evaluar su origen, su propósito, sus fortalezas y debilidades, y qué implicancias podría tener todo esto posteriormente para sus posibles usos e implicaciones. «¿Quién se beneficia de esta tecnología o quién se ve perjudicado y qué recursos tienen?» es un buen punto de partida, sugieren Bender y Hanna.
Estas preguntas básicas, pero importantes, nos alejan de los entresijos del debate técnico: ¿cómo funciona la IA?, ¿cuán precisa o «buena» es realmente?, ¿cómo podemos comprender esta complejidad sin ser ingenieros?, y nos brindan una perspectiva crítica. Asignan la responsabilidad de explicar a la industria, en lugar de a los usuarios, que deben adaptarse o quedar superfluos.
No necesitamos explicar conceptos técnicos como la retropropagación o la difusión para comprender que las tecnologías de IA pueden socavar el trabajo justo, perpetuar estereotipos raciales y de género, y exacerbar las crisis ambientales. El revuelo en torno a la IA busca distraernos de estos efectos concretos, trivializarlos y, por lo tanto, incitarnos a ignorarlos.
Como explican Bender y Hanna, quienes impulsan y desafían la IA son en realidad dos caras de la misma moneda. Imaginar escenarios de pesadilla en los que una IA autorreplicante acabe con la humanidad o afirmar que las máquinas conscientes nos conducirán a un paraíso posthumano son, en el fondo, lo mismo. Depositan una fe casi religiosa en las capacidades de la tecnología, que domina el debate, permitiendo a las empresas tecnológicas mantener el control del desarrollo futuro de la IA.
El riesgo de la IA no es una catástrofe potencial en el futuro, como la amenaza nuclear durante la Guerra Fría, sino el daño más silencioso y significativo que sufren las personas reales en el presente. Los autores explican que la IA se asemeja más a un panóptico «que permite a un solo director de prisión controlar a cientos de presos a la vez», o a las «redes de vigilancia que rastrean a los grupos marginados en Occidente», o a un «residuo tóxico que contamina un yacimiento de gas de la Reserva de la Biosfera», o a un «trabajador rompehuelgas que cruza el piquete a instancias de un empleador que quiere mostrarles a los piqueteros que son desechables. La totalidad de los sistemas que se venden como IA son todo esto, todo en uno».
Hace una década, con otra tecnología «que cambió las reglas del juego», el escritor Ian Bogost observó que «en lugar de utopía o distopía, solemos terminar con algo menos dramático, pero más decepcionante. Los robots no sirven a los amos humanos ni nos destruyen en un genocidio dramático, sino que desmantelan lentamente nuestros medios de vida, mientras nos dejan seguir vivos».
El patrón se repite. A medida que la IA madura (hasta cierto punto) y es adoptada por las organizaciones, pasa de la innovación a la infraestructura, de la magia al mecanismo. Las grandes promesas nunca se materializan. En cambio, la sociedad se enfrenta a un futuro más duro y sombrío. Los trabajadores sienten más presión; la vigilancia se normaliza; la verdad se confunde con la posverdad; los marginados se vuelven más vulnerables; el planeta se calienta.
La tecnología, en este sentido, es un ser cambiante: su apariencia cambia constantemente, pero su lógica interna permanece inalterada. Explota el trabajo y la naturaleza, extrae valor, centraliza la riqueza y protege el poder y el estatus de quienes ya son poderosos.
Cooptación de la crítica
En El nuevo espíritu del capitalismo, los sociólogos Luc Boltanski y Eve Chiapello demuestran cómo el capitalismo ha mutado con el tiempo, incorporando las críticas a su ADN.
Tras sufrir una serie de reveses en torno a la alienación y la automatización en la década de 1960, el capitalismo pasó de un modo de producción fordista jerárquico a una forma de autogestión más flexible durante las dos décadas siguientes. Comenzó a favorecer la producción just in time, realizada en equipos más pequeños, que (aparentemente) fomentaba la creatividad y el ingenio de cada individuo. El neoliberalismo ofrecía «libertad», pero a un precio. Las organizaciones se adaptaron; se hicieron concesiones; se apaciguó la crítica.
La IA continúa esta forma de cooptación. De hecho, el momento actual puede describirse como el fin de la primera ola de IA crítica. En los últimos cinco años, los gigantes tecnológicos han lanzado una serie de modelos más grandes y «mejores», con el público y la academia centrándose principalmente en modelos generativos y de «fundamento»: ChatGPT, StableDiffusion, Midjourney, Gemini, DeepSeek, etc.
Los académicos han criticado duramente algunos aspectos de estos modelos; mi propio trabajo ha explorado las afirmaciones de verdad, el odio generativo, ethic washing (apropiación de discursos éticos) y otros temas. Gran parte del trabajo se ha centrado en el sesgo: la forma en que los datos de entrenamiento reproducen estereotipos de género, desigualdad racial, intolerancia religiosa, epistemologías occidentales, etc.
Gran parte de este trabajo es excelente y parece haberse filtrado a la opinión pública, según conversaciones que he mantenido en talleres y eventos. Sin embargo, la detección de estos problemas permite a las empresas tecnológicas practicar la resolución de problemas. Si la precisión de un sistema de reconocimiento facial es menor con rostros negros, añada más rostros negros al conjunto de entrenamiento. Si se acusa al modelo de predominio del inglés, invierta en la producción de datos sobre idiomas con recursos limitados.
Empresas como Anthropic realizan regularmente ejercicios de «red teaming» (trabajo en equipo rojo) diseñados para identificar sesgos ocultos en los modelos. Posteriormente, las empresas corrigen o mitigan estos problemas. Sin embargo, debido al tamaño masivo de los conjuntos de datos, estos tienden a ser parches, ajustes superficiales en lugar de estructurales.
Por ejemplo, poco después de su lanzamiento, los generadores de imágenes de IA se vieron presionados por no ser lo suficientemente «diversos». En respuesta, OpenAI inventó una técnica para reflejar con mayor precisión la diversidad de la población mundial. Los investigadores descubrieron que esta técnica simplemente añadía prompts ocultos (por ejemplo, «asiático», «negro») a las indicaciones del usuario. El modelo Gemini de Google también parece haber adoptado esta práctica, lo que provocó una reacción negativa cuando las imágenes de vikingos o nazis presentaban rasgos del sur de Asia o nativos americanos.
La cuestión aquí no es si los modelos de IA son racistas, históricamente inexactos o progresistas, sino que son políticos y nunca desinteresados. Preguntas más complejas sobre cómo la cultura se vuelve computacional, o qué tipo de verdades deseamos como sociedad, nunca se abordan y, por lo tanto, nunca se analizan sistemáticamente.
Estas preguntas son ciertamente más amplias y menos «puntuales» que el sesgo, pero también menos susceptibles de ser traducidas a un problema que un codificador deba resolver.
¿Qué sigue?
¿Cómo deberían, entonces, quienes no pertenecen al ámbito académico responder a la IA? En los últimos años se ha producido una oleada de talleres, seminarios e iniciativas de desarrollo profesional. Estos abarcan desde recorridos celebratorios por las funciones de la IA en el entorno laboral, pasando por debates serios sobre riesgos y ética, hasta reuniones generales organizadas apresuradamente para debatir cómo responder ahora, el mes que viene y el siguiente.
Bender y Hanna concluyen su libro con sus propias respuestas. Muchas de ellas, como sus preguntas sobre cómo funcionan los modelos y quién se beneficia, son sencillas pero fundamentales, y ofrecen un sólido punto de partida para la participación organizacional.
Para el dúo tecnoescéptico, el rechazo también es claramente una opción, aunque obviamente cada individuo tendrá un grado de autonomía muy diferente a la hora de rechazar modelos y rechazar estrategias de adopción. El rechazo a la IA, como ocurre con muchas tecnologías anteriores, suele depender en cierta medida de privilegios. El consultor o programador con un salario de seis cifras tendrá un poder de decisión que el trabajador eventual o de servicios no puede ejercer sin sufrir sanciones.
Si el rechazo es problemático en lo individual, parece más viable y sostenible a nivel cultural. Bender y Hanna sugieren que se responda a la IA generativa con burla: las empresas que la emplean deberían ser ridiculizadas por ser baratas o de mal gusto.
La reacción cultural contra la IA ya está en pleno auge. Las bandas sonoras en YouTube se etiquetan cada vez más como «Sin IA». Algunos artistas han lanzado campañas y hashtags, enfatizando que sus creaciones son «100 % artificiales».
Estos movimientos buscan establecer un consenso cultural sobre la naturaleza poco original y explotadora del material generado por IA. Sin embargo, si bien ofrecen alguna esperanza, van a contracorriente de la veloz decadencia de las plataformas. La basura de IA (AI slop) implica una creación de contenidos más rápida y barata; la lógica técnica y financiera de las plataformas online (viralidad, participación, monetización) siempre creará una carrera hacia lo más bajo.
Quedan aún sin respuesta interrogantes tales como hasta qué punto se aceptará la visión de las grandes tecnológicas, cómo se integrarán o impondrán las tecnologías de IA y hasta qué punto las rechazarán las personas y las comunidades. En muchos sentidos, Bender y Hanna demuestran con éxito que la IA es una estafa: falla en productividad e inteligencia, mientras que la ola publicitaria blanquea una serie de transformaciones que perjudican a los trabajadores, exacerban la desigualdad y dañan el medio ambiente.
Algunas tecnologías anteriores (combustibles fósiles, automóviles privados, automatización industrial) han tenido también estas consecuencias; sin embargo, estas no impidieron que fueran adoptadas ni que transformaran la sociedad. Así pues, si bien hay que elogiar a Bender y Hanna por un libro que muestra «cómo luchar contra la ola publicitaria de las grandes tecnológicas y crear el futuro que queremos», la cuestión de la IA evoca en mí la observación de Karl Marx de que las personas «hacen su propia historia, pero no la hacen a su libre arbitrio»
Nota: Artículo publicado originalmente por The Conversation bajo una licencia de Bienes Creativos Comunes.
Luke Munn
Becario de investigación postdoctoral del Centro de Culturas y Sociedades Digitales Universidad de Queensland, Australia. Su trabajo explora sobre los impactos socioculturales de las culturas digitales.
CONTENIDO RELACIONADO

La ideología de los «tecnolores»
JOÃO CAMARGO | La base ideológica de Elon Musk, Jeff Bezos o Mark Zuckerberg auna las doctrinas neoliberales con racismo científico, una visión antihistórica de retorno al feudalismo y la aceleración hacia el colapso social y medioambiental, y tiene unos efectos catastróficos para la humanidad.

Los nuevos legisladores de Silicon Valley
POR EVGENY MOROZOV | Los multimillonarios de la elite tecnológica quieren implantar el futuro con el que sueñan. Primero nos vendieron una visión del mundo. Ahora, la pretenden implementar reconfigurando la legislación, las instituciones y las expectativas culturales hasta que sus fantasías privadas se hagan realidad.

Que todas las naciones sean naciones de IA
POR ALFREDO MORENO | China y Estados Unidos, la geopolítica por la supremacía del nuevo orden mundial basado en la inteligencia artificial (IA). Supercómputos, algoritmos y datos definen el contexto del liderazgo global.

El mundo necesita una agenda de inteligencia artificial prohumana
POR DARON ACEMOGLU | A juzgar por el paradigma actual de la industria tecnológica, no podemos descartar el peor de los mundos posibles: nada del potencial transformador de la IA, pero sí todo el desplazamiento de mano de obra, la desinformación y la manipulación. Pero no es demasiado tarde para cambiar de rumbo.
TAMBIÉN TE PUEDE INTERESAR

Cómo las prácticas de gobernanza social pueden ofrecer respuestas a la crisis del periodismo
POR ESFERA REDACCIÓN | Periodismo local al servicio de los públicos es el resultado de un proyecto de investigación diseñado para formular respuestas originales a la crisis que afecta al periodismo.

La historia del Sipreba contada por sus trabajadores
POR ESFERA REDACCIÓN | El 7 de junio de 2025 el Sindicato de Prensa de Buenos Aires (Sipreba) cumplió diez años. Entre las acciones para celebrar este aniversario se publicó un libro sobre la historia del gremio que, en registro de crónica, repone las luchas que antecedieron al sindicato actual, así como el proceso de consolidación que lo posiciona en el presente y lo proyecta al futuro.

Imaginarios tecnológicos y nuevas socializaciones
POR ESFERA REDACCIÓN | Cómo se transmiten los saberes entre los jóvenes en este momento tecnosocial y de qué manera se relacionan con la pedagogía vigente es el tema de este reciente número monográfico de Futuros Comunes, revista de la Universidad Nacional de José C. Paz (Unpaz), cuya realización planteó la necesidad de un enfoque metodológico y analítico situado entre marcos epistemológicos distintos: el de una tradición relacionada con el proyecto cultural de la modernidad y otro más reciente que surge en el contexto de la sociedad informacional.

El libro de Aram
POR ESFERA REDACCIÓN | Aram Aharonian (Montevideo, 1946) estudió abogacía y diplomacia en la Universidad de la República, pero le ganó la vocación de periodista. Es autor del proyecto y fundador (2005) y director (hasta 2008) de la Nueva Televisión del Sur (Telesur). También fue docente universitario. Actualmente sigue publicando desde el Centro Latinoamericano de Análisis Estratégico (CLAE).

Para confiar en el periodismo
POR ESFERA REDACCIÓN | La credibilidad periodística está en cuestión y la profesión en el centro del debate. El tema impulsó a un grupo de investigadores de la comunicación de Brasil a iniciar en 2021 una investigación titulada «Índice de credibilidad periodística: formulación de indicadores de fortalecimiento del periodismo en la lucha contra los ecosistemas de desinformación», cuyos resultados quedaron finalmente plasmados en Credibilidad periodística, libro del que publicamos aquí su introducción, escrita por Rogério Christofoletti, impulsor y coordinador de la iniciativa.