miércoles 04 de marzo de 2026

Alcanzaste el límite de 40 notas leídas

Para continuar, suscribite a Todo Jujuy. Si ya sos un usuario suscripto, iniciá sesión.

SUSCRIBITE
4 de marzo de 2026 - 10:31
Inteligencia Artificial.

Trump ordena "abandonar" Anthropic: ¿qué significa esto para el mundo IA?

Donald Trump ordenó a las agencias federales dejar de usar Anthropic luego del ultimátum que el Pentágono le impuso días antes.

Redacción de TodoJujuy
Por  Redacción de TodoJujuy

La IA dejó de ser una herramienta empresarial del ámbito corporativo para convertirse en asunto militar de primer orden. El choque entre la Casa Blanca y Anthropic marca un nuevo punto de inflexión en la política internacional. ¿Hasta qué punto una empresa privada puede establecer límites éticos cuando el Estado invoca la seguridad nacional?

El 27 de febrero, el presidente Donald Trump ordenó a las agencias federales dejar de usar los modelos de Anthropic “inmediatamente”. En su red social Truth Social, acusó a la empresa de ser una firma “radical de izquierda” que intenta imponer sus propios “Términos de Servicio en lugar de nuestra Constitución” y sostuvo que ninguna compañía puede “dirigir” las Fuerzas Armadas, “esa decisión le corresponde a SU COMANDANTE EN JEFE”.

La reacción se produjo un día después de que empresa sostuvo que no otorgará al Departamento de Defensa de Estados Unidos el uso militar sin restricciones de su tecnología, pese a las presiones del Pentágono.

Trump anunció además “un período de descontinuación gradual de seis meses para agencias como el Departamento de Guerra que utilizan los productos de Anthropic”. Y lanzó una advertencia directa: si la empresa no colabora, “usaré todo el poder de la Presidencia para obligarlos a cumplir”.

El ultimátum del Pentágono a Anthropic

El 24 de febrero, el secretario de Defensa, Pete Hegseth, convocó al CEO de la compañía, Dario Amodei, a una reunión a Washington. Allí el mensaje fue contundente: la empresa tenía hasta las 17.01 del viernes para aceptar que sus modelos pudieran utilizarse en todas las aplicaciones militares consideradas legales por el gobierno.

La negativa de Anthropic a permitir el uso de Claude en vigilancia doméstica masiva o en armas autónomas sin supervisión humana detonó el enfrentamiento. Según reportes del Financial Times y Politico, el pentágono amenazó con dos medidas extraordinarias. La primera, declarar a la compañía “riesgo para la cadena de suministro”, una etiqueta normalmente reservada para empresas extranjeras vinculadas a adversarios estratégicos. La segunda, invocar la Ley de Protección de Defensa, una normativa de la Guerra Fría que permite al Ejecutivo intervenir la industria privada en nombre de la defensa nacional.

La paradoja es evidente, si Anthropic representa un riesgo como plantea Trump y el Pentágono, ¿por qué forzar el uso de su tecnología? Y si es tan indispensable, ¿por qué amenazar con excluirla?

A mediados del 2025, la startup de 380 mil millones de dólares había obtenido un contrato de 200 millones de dólares con el Departamento de Defensa para desarrollar capacidades avanzadas de IA en seguridad nacional, al igual que otras compañías del sector como OpenAI, tal como lo informamos en la nota “IA para la Guerra”. Hoy ese acuerdo con Anthropic pende de un hilo.

Donald Trump eleva al 15% los aranceles globales tras el fallo de la Corte Suprema
Donald Trump  Una vez más Estados Unidos arremete contra una empresa tecnológica. Pero esta vez no es asiática. Es estadounidense.

Donald Trump

Una vez más Estados Unidos arremete contra una empresa tecnológica. Pero esta vez no es asiática. Es estadounidense.

Dilemas éticos y las expectativas de regulación

Con acuerdos de esta magnitud era previsible que la IA generativa ingresara de lleno al terreno de estratégico-militar. Pues bien, ¿bajo qué condiciones?

Anthropic nació con la promesa de desarrollar IA alineada con principios de seguridad y responsabilidad. Amodei abandonó OpenAI en 2020 alegando preocupaciones sobre el rumbo de la industria, y desde entonces sostiene que la IA avanza más rápido que los marcos regulatorios.

La administración Trump y actores clave del ecosistema tecnológico que orbitan su entorno y lo sostienen, como Elon Musk y Peter Thiel, impulsan lo contrario. Para ellos el Estado no debe imponer restricciones a la innovación bajo ninguna circunstancia.

Según el Financial Times, el llamado “zar de la IA de Trump”, David Sacks, ha acusado a Anthropic de “ejecutar una sofisticada estrategia de captura regulatoria basada en el alarmismo”.

La renuncia el 09 de febrero, de Mrinank Sharma, investigador de seguridad y líder del equipo de "Safeguards" (salvaguardas) en Anthropic, añadió más tensión al debate. En su carta de renuncia advirtió: “el mundo está en peligro” y múltiples crisis interconectadas “avanzan de manera simultánea”.

Ahora bien, en un ámbito marcado por rápidos cambios ¿basta con la bandera de la regulación? Lo que se percibe a simple vista es que la tecnología ha ampliado exponencialmente la escala de poder, pero la gobernanza y el derecho no han logrado seguir ese ritmo. Además, en un contexto de guerra multidimensional, ¿quién decide qué es legal y qué no?

IA para operaciones militares

Hegseth ha centrado su discurso en la necesidad de alejarse de lo que denomina políticas “woke” y llama a Estados Unidos a aprovechar su ventaja tecnológica para hacer soldados “más eficientes y letales”. Según él, la guerra habilitada por la IA “redefinirá el carácter de los asuntos militares durante la próxima década”.

Claude, el modelo estrella de Anthropic con sede en San Francisco, ha sido hasta ahora el único sistema de IA que opera en entornos clasificados del Departamento de Defensa, gracias a su colaboración e integración con Palantir Technologies, de quien también hablamos en “IA para la Guerra”.

Un ejemplo que impacta directamente en nuestra región fue el secuestro al presidente Nicolas Maduro y Cilia Flores, la primera combatiente, en enero del corriente, mediante el uso de Claude por parte de Estados Unidos. Según The Wall Street Journal, el despliegue se realizó a través de Palantir, en el marco del acuerdo con el Departamento de Defensa. La intervención con semejantes características generó interrogantes dentro de Anthropic sobre cómo se utilizó el sistema y su relación con el fuego desatado que terminó con la vida de 32 militares y agentes de seguridad cubanos y casi 50 militares y civiles venezolanos.

Otro caso revelado el 25 de febrero por Bloomberg señala que Claude y ChatGPT 4.1, de OpenAI, fueron empleadas para hackear instituciones mexicanas como el Instituto Nacional Electoral (INE), el Servicio de Administración Tributaria (SAT) y gobiernos estatales del Estado de México, Jalisco, Michoacán y Tamaulipas. El episodio evidenció cómo herramientas diseñadas para asistencia y análisis pueden ser reutilizadas con otros fines. En este sentido, a fines de 2025, la Agencia de Transformación Digital y Telecomunicaciones mexicana presentó el Plan Nacional de Ciberseguridad, la primera política nacional orientada a homologar la protección de infraestructura crítica y sistemas gubernamentales.

Cadenas de suministro

Excluir a Anthropic de la cadena de suministro del Departamento de Defensa tendría consecuencias sistémicas. No sólo afectaría su contrato millonario, sino también a socios estratégicos como Palantir, profundamente integrados en sistemas de inteligencia y análisis militar.

Pero la disputa ocurre en un contexto más amplio. La propia Anthropic ha acusado a laboratorios chinos como DeepSeek de realizar “destilación” para replicar capacidades de sus modelos. En paralelo, Washington mantiene controles de chips avanzados para preservar su ventaja tecnológica sobre Beijing.

Primero Huawei y TikTok. Ahora Anthropic bajo la lupa de la seguridad nacional

Eliminar a Anthropic de la cadena de suministro del Pentágono es una medida extrema, históricamente reservada para empresas vinculadas a adversarios extranjeros. Queda por ver qué pasará con Google y OpenAI.

Lo cierto es que la industria tecnológica y de la IA, han entrado en una fase donde cada vez resulta más evidente que ninguna tecnología es neutral y que su rol en la guerra es determinante. Quién controla la tecnología ya está expuesto nítidamente. La pregunta ahora es si la humanidad llegará a tiempo para decidir cuándo desconectar el interruptor.

Por Betiana Vargas - Diario Red

Investigadora y analista internacional, doctoranda en Estudios del Desarrollo de la Universidad Autónoma de Zacatecas (UAZ).

Sumate al Canal de WhatsApp de TodoJujuy.com

Recibí las noticias en tu celular sumándote al Canal de WhatsApp de TodoJujuy.com. Ingresá al siguiente enlace:  https://whatsapp.com/channel/0029VaQ05Jk6BIErMlCL0v0j

Si querés, podés activar las notificaciones.

Además, podés comunicarte con nosotros a través del WhatsApp de las Noticias al 3885007777.

Copyright © Todo Jujuy Por favor no corte ni pegue en la web nuestras notas, tiene la posibilidad de redistribuirlas usando nuestras herramientas. Derechos de autor reservados.
Seguí leyendo

Lo destacado