Claude, la «IA woke» de Anthropic
La inteligencia artificial ya opera en el corazón de la ciberseguridad y la toma de decisiones militares. El acuerdo entre Anthropic y el Pentágono, y su integración con Palantir, lo evidencia. Pero cuando el Departamento de Guerra de Estados Unidos exigió el uso irrestricto de Claude —incluso en armas autónomas y vigilancia masiva—, Anthropic se negó. La tensión resultante revela que el debate para fijar límites al uso de la IA no es tecnológico y debe darse en el ámbito de lo política; es decir, en el marco de la institucionalidad democratica.
Como puede operar con volúmenes de datos que ningún equipo humano podría procesar en tiempo real, la inteligencia artificial (IA) se ha instalado en el corazón de la ciberseguridad y en la toma de decisiones en entornos de alto riesgo. Este potencial se puso en evidencia durante el operativo en el que el Pentágono secuestró al presidente de Venezuela Nicolás Maduro. La integración de Claude IA, de la compañía Anthropic, con la plataforma operativa de Palantir hizo posible configurar una herramienta de software con capacidad para gestionar y entregar perspectivas y ponderaciones basados en el análisis de miles de datos y variables del Pentágono.
Por tal motivo, cuando plataformas como Palantir se conectan a objetivos de seguridad y vigilancia con la asistencia de inteligencia artificial para el análisis de datos el debate deja de ser tecnológico y se vuelve político, ético y operativo.
La carrera por dominar la inteligencia artificial se ha ido concentrando hasta dejar a un grupo de corporaciones que compiten en más alto nivel de los gobiernos. Anthropic forma parte de ese grupo reducido junto con Open AI o Google, y su modelo Claude ha ganado terreno en ámbitos como la programación e integración con plataformas de software para la gestión operativa militar. En los últimos días de febrero, el Pentágono presionó a Anthropic a fin de usar este modelo para «todos los fines lícitos».
Anthropic quedó así ante una encrucijada: mantener límites en su modelo de IA cuando es utilizado en el sector militar o acceder a la presión del Departamento de Guerra (ex-Defensa) de Estados Unidos de América (EUA), que presiona para que la empresa levante estas funcionalidades de la tecnología Claude.
Un poco de historia
Anthropic y el Departamento de Guerra de EUA firmaron un acuerdo para el uso de la IA Claude por doscientos millones de dólares. De esta manera, Claude se integró a la plataforma de Palantir para convertirse en el sistema operativo del Pentágono con profundidad en la gestión logística y militar, con las limitaciones del modelo explicitadas contractualmente.
La «apretada» del Pentágono es ahora para que Claude no mantenga límites sobre armas autónomas y vigilancia masiva y pueda ser utilizado para «todos los fines lícitos», incluso en áreas especialmente sensibles como el desarrollo de armas autónomas, la recopilación de inteligencia o las operaciones en el campo de batalla. Pocas veces una negociación contractual entre una empresa tecnológica y el gobierno de Estados Unidos había concentrado con tanta claridad las tensiones de fondo que atraviesa el desarrollo de la inteligencia artificial.
Ante el rechazo de Anthropic a las exigencias del gobierno de autorizar el uso militar incondicional de su tecnología, la tensión creada amplió la mesa de posibilidades para que otro proveedor de IA, como Open AI, acupe este lugar.
Dario Amodei, director ejecutivo de Anthropic, argumentó que los sistemas de IA de vanguardia todavía no son lo suficientemente confiables como para operar sin supervisión humana en contextos letales, y que el uso doméstico masivo de esos sistemas resulta incompatible con los valores democráticos. Aclaró, además, que no abandonaba la negociación, sino que rechazaba un lenguaje contractual que, a su juicio, no avanzaba en ninguna de las dos restricciones fundamentales. La distinción es relevante: la empresa no se opone a colaborar con la defensa nacional —sus modelos ya operan en el Pentágono y en agencias de inteligencia—, sino a hacerlo sin condiciones.
El Pentágono respondió con un ultimátum: aceptar las condiciones antes de las 17 horas del viernes 27 de febrero o enfrentar una orden de cumplimiento forzoso bajo la Ley de Producción de Defensa, una normativa de la Guerra Fría que habilita al gobierno federal a movilizar a la industria privada en función de la seguridad nacional.[1]En 1950, durante la Guerra de Corea, nació la Defense Production Act, una ley que otorga al presidente poderes para asegurar suministros necesarios para la defensa nacional. Esto, por ejemplo, da … Continue reading También amenazó con catalogar a la empresa como riesgo para la cadena de suministro, una etiqueta habitualmente reservada a compañías de países adversarios. Antes de que venciera el plazo, Trump publicó en Truth Social la orden de cese inmediato del uso de tecnología de Anthropic en todas las agencias federales, con un período de seis meses para la transición. «Los lunáticos izquierdistas de Anthropic —dijo— cometieron un grave error al intentar obligar al Departamento de Guerra a obedecer sus términos de servicios en lugar de nuestra constitución». manifestó con su particu. Por su parte, el secretario de Guerra, Pete Hegseth, calificó la actitud de la empresa de «arrogancia y traición».
La alternativa —ofrecida por Sam Altman, director ejecutivo de Open AI— no es obviamente una posibilidad inmediata. La IA de Anthropic ya está muy integrada en todos los sistemas, procesos y servicios que el Departamento de Guerra utiliza de forma cotidiana. Es un barco demasiado grande como para que cambie el rumbo de la noche a la mañana. Conoce demasiado de los interiores de esos sistemas que deben ser altamente secretos. Pero Estados Unidos tiene una palanca para adueñarse del modelo. Lo único que debe argumentar es que sea por una necesidad de seguridad nacional.
Castigo disciplinario a la IA woke
Hegseth, también calificó a la IA de Anthropic como una «IA woke» por no autorizar que su tecnología sea empleada para la vigilancia masiva de ciudadanos estadounidenses e integrada en sistemas de armas totalmente autónomas. Y sostuvo la posibilidad de reemplazar Claude por un modelo de Google, OpenAI o xAI, que permitiría que el gobierno de EUA use sus modelos de IA en cualquier escenario «legal». Además, amenazó con la utilización de la normativa de la Defense Production Act, Estados Unidos, que puede castigar a quienes pongan en riesgo la cadena de suministros del país.
El caso Anthropic–Pentágono y la integración con Palantir no solo es sobre vigilancia. Habla de una transición: la ciberseguridad se ha convertido en un sistema de decisiones asistidas por IA, donde los datos son el insumo principal y la interpretación puede automatizarse.
Anthropic quiere demostrar que es una empresa responsable y preocupada por la seguridad. Esa es su marca. Y el Pentágono dice: ¡Esta es la empresa woke de la IA! ¡Estamos tomando medidas enérgicas contra lo woke! Esa es la marca del movimiento MAGA (Make America Great Again / Hacer Ämérica grande otra vez).
En este escenario, la pregunta relevante es bajo qué controles, con qué auditoría y con qué límites se utilizarán los modelos de IA en ciberseguridad.
Modelos con Claude pueden ayudar a procesar y resumir grandes volúmenes de datos, priorizar alertas y detectar patrones. En entornos de seguridad, eso puede acelerar decisiones, pero también introduce riesgos si no hay gobernanza y conocimiento público.
Palantir desarrolla plataformas de monitoreo, recolección y análisis de datos utilizadas por distintos gobiernos. Su reputación está asociada a usos de inteligencia, observación, seguimiento y seguridad, lo que implica vigilancia y control de lo público sin debate social y regulación en cada país.
La tecnología acelera la dinámica del mercado; pero las normativas y reglamentaciones se construyen a una velocidad más lenta o no se realizan. La aceleración y desaceleración a cargo de la representación política tiene intereses para que así suceda. El pasado 11 de noviembre de 2025, la Comisión de Ciencia, Tecnología e Innovación productiva de la Honorable Cámara de Diputados, realizó la octava reunión con dieciste diputados de los diferentes bloques de representación política para debatir el proyecto de Ley Marco Normativo y de Desarrollo de los Sistemas de IA. El mismo, presenta un marco legal para el desarrollo, implementación y uso responsable de sistemas de inteligencia artificial (IA) en Argentina y fue debatido y consensuado con representantes de universidades nacionales, fundaciones, cámaras y empresas del sector, propuestas a cargo de diputados que integran la comisión y colegios de profesionales. Para ver el desarrollo de la reunión recomiendo este video.
Este debate me lleva a la pregunta de a quién beneficia que en la Argentina la implementación de aplicaciones y centro de datos para la IA continúe desregulada. También me pregunto por qué los diputados oficialistas rehuyen con argumentos insustanciales un debate democrático con fundamentos científicos y técnicos.
La humanidad está ingresando en una etapa en la cual la mente se convirtió en «un espacio que requiere protección jurídica explícita». La aceleración tecnológica desplazó el debate ético: el desafío ya no es «si la mente puede ser leída», sino quién controla esa capacidad y con qué autoridad para hacerlo.
La tecnología acelera, pero las normativas se construyen a una velocidad más lenta o no se realizan. La aceleración y desaceleración política tiene intereses para que así suceda. La Argentina en este presente es un ejemplo que no debemos imitar sobre el descuido de su población.
Alfredo Moreno
Computador Científico. Profesor TIC en la Universidad Nacional de Moreno (UNM). Integrante de la Red de Pensamiento Latinoamericano en Ciencia, Tecnología y Sociedad (Placts).
LEÉ TAMBIÉN

Comunes digitales y soberanía tecnológica: las alternativas que ya funcionan
POR EDUARDO GARRIDO MERCHÁN | De Linux a Som Energia: cinco pruebas de que otro modelo tecnológico es posible, viable y escalable. Solo falta que lo sepamos.

El juicio a Zuckerberg es solo la punta del iceberg: Meta, X y TikTok son estructuralmente tóxicas para la democracia
POR ENRIQUE DANS | En el Tribunal Superior de Los Ángeles, ante la jueza Carolyn B. Kuhl, Mark Zuckerberg no enfrenta solo demandas por daños a adolescentes. Lo que se examina, con documentos internos y testimonios bajo juramento, es la lógica misma de un modelo de negocio que optimiza la atención, monetiza la conducta y convierte las vulnerabilidades psicológicas en ventaja competitiva.

Con dolor, despedimos a Acequia TV, el canal público de Mendoza
POR OSVALDO NEMIROVSCI | El cierre de Acequia TV no es solo el final de un canal: es la pérdida de una voz pública que supo narrar a Mendoza desde su propia identidad. Tras años de desfinanciamiento y desinterés oficial, un decreto apaga una experiencia que defendió la producción local, el trabajo audiovisual y la diversidad cultural. No es casualidad: es el resultado de una política que reduce todo a la lógica de mercado, donde los derechos pasan a ser un costo a eliminar.

Las narrativas del poder
POR MARCELO VALENTE | En nombre de la ley, la seguridad nacional y el mercado, la administración de Donald Trump desplegó un entramado de narrativas para intervenir en Venezuela y enviar una señal al resto del continente (y el mundo). No se trata de un caso aislado, sino de un libreto más amplio donde el poder se ejerce contando historias que habilitan la fuerza, el negocio y la intimidación como política.

Wikipedia cumple veinticinco años: ¿cómo la enciclopedia que la academia rechazaba se ha convertido en un bien público digital?
POR MARTÍN TENA ESPINOZA | Wikipedia cumple veinticinco años consolidada como la mayor fuente de conocimiento libre del mundo. Nacida en 2001 y durante años cuestionada por su fiabilidad, la enciclopedia colaborativa es hoy reconocida como un bien público digital global, con más de sesenta y cinco millones de artículos en cientos de idiomas, mientras enfrenta el desafío de sostener el conocimiento humano en la era de la inteligencia artificial.
Notas
| ↑1 | En 1950, durante la Guerra de Corea, nació la Defense Production Act, una ley que otorga al presidente poderes para asegurar suministros necesarios para la defensa nacional. Esto, por ejemplo, da poder al gobierno para exigir a las empresas que prioricen contratos con el Estado para asignar materiales, servicios e instalaciones. También permitir ayudas para ampliar la capacidad productiva y, en definitiva, poner a las mayores empresas del país a funcionar en función de lo que se necesite. Esta normativa se ha ido expandiendo y ampliando en el tiempo. Las necesidades de 1950 no son las mismas que las de décadas posteriores en 2023 se firmó la Orden Ejecutiva 14110, una normativa que obliga a los propietarios de los modelos de IA más potentes a notificar al Gobierno cuando entrenen sistemas que puedan suponer un riesgo para la seguridad nacional, la economía o la salud pública. |
|---|


