Tecnología

Cómo el Pentágono usó a la Inteligencia Artificial Claude para capturar a Maduro

Mientras Anthropic vendía a Claude en Silicon Valley como la IA “ética” y pacifista, el Pentágono le daba un uso muy distinto en Caracas. Una investigación del WSJ revela que la inteligencia artificial no solo escribe correos: fue el cerebro silencioso que procesó la data crítica -vía Palantir- para la captura de Nicolás Maduro el pasado 3 de enero, desafiando todas las promesas de seguridad de sus creadores.

Cómo el Pentágono usó a la Inteligencia Artificial Claude para capturar a Maduro

Durante meses, Anthropic se ha posicionado en Silicon Valley como la alternativa ética entre las apps de Inteligencia Artificial, frente a ChatGPT y Google Gemini. La empresa fundada por los hermanos Amodei promociona a Claude como una IA construida bajo principios éticos y una “Constitución” propia.

En otras palabras, Anthropic ha vendido a Claude como un modelo de IA diseñado específicamente para ser inofensivo, honesto y, sobre todo, pacífico.

Sus términos de servicio son claros: nada de armas, nada de vigilancia masiva, nada de violencia.

Pero los analistas señalan una posible contradicción con los términos y condiciones: el WSJ reporta que el Pentágono utilizó a Claude durante la planificación y ejecución de la incursión militar que terminó con la captura de Nicolás Maduro en Venezuela a principios de enero.

La misión para detener a Maduro y su esposa, que incluyó el bombardeo de varios lugares en Caracas el mes pasado, es contraria al espíritu de uso de Anthropic que prohíbe que Claude se utilice para “facilitar la violencia, desarrollar armas o realizar vigilancia”.

Así es como Claude procesó la inteligencia necesaria para una operación de extracción de alto riesgo, pese a sus restricciones éticas.

El factor Palantir

Trump y asesores siguiendo la misión que capturó a Maduro Truth Social @@realDonaldTrump

¿Cómo una IA programada para rechazar solicitudes violentas termina en una planificación militar clasificada del Pentágono? La respuesta tiene nombre y apellido: Palantir Technologies.

Según el reporte, el Departamento de Defensa no accedió a Claude a través de la interfaz web que usamos para resumir correos o escribir código. Lo hicieron a través de las plataformas de análisis de datos de Palantir, la firma de Peter Thiel especializada en análisis para Defensa.

Al integrar a Claude dentro del ecosistema clasificado de Palantir, el Pentágono pudo utilizar la capacidad de razonamiento y procesamiento de datos del modelo para sintetizar terabytes de inteligencia en tiempo real.

No es que Claude estuviera “pilotando drones” o “apretando el gatillo”, sino que haciendo lo que mejor sabe hacer: encontrar patrones que, en este caso, habrían llevado a una incursión con botas sobre el terreno y bombardeos previos que causaron bajas.

La defensa de Anthropic y la presión del Pentágono

Cómo el Pentágono usó a la Inteligencia Artificial Claude para capturar a Maduro

La situación deja a Anthropic en una compleja tensión contractual.

Por un lado, su valoración se ha disparado a 380 mil millones de dólares, consolidándose como una herramienta esencial para la seguridad estadounidense. Aunque las preocupaciones de Anthropic sobre cómo Claude puede ser utilizado por el Pentágono han llevado a los funcionarios de la administración Trump a considerar cancelar su contrato por un valor de hasta 200 millones de dólares, según informó el Journal.

Por otro lado, su misión fundacional de “seguridad ante todo” contrasta con la operación militar de Trump.

“No podemos comentar si Claude, o cualquier otro modelo de IA, se utilizó para alguna operación específica, clasificada o no”, declaró un portavoz de Anthropic. “Cualquier uso de Claude, ya sea en el sector privado o en el gobierno, debe cumplir con nuestras Políticas de Uso, que rigen su implementación”.

No emplearemos modelos de inteligencia artificial que no permitan ganar guerras

Pete Hegseth, Secretario de Defensa

La realidad es que Anthropic es hoy el único proveedor de LLM (grandes modelos de lenguaje) disponible en redes clasificadas a través de terceros.

La tensión es evidente. El Secretario de Defensa, Pete Hegseth, ya había advertido en enero, en un mensaje a las dudas éticas de Silicon Valley: “No emplearemos modelos de IA que no permitan ganar guerras”.

Las implicaciones para las big tech parecen claras: si quieren los contratos multimillonarios del gobierno, la ética no puede ser un obstáculo.

Neutralidad y desafíos de uso en entornos militares

Cómo el Pentágono usó a la Inteligencia Artificial Claude para capturar a Maduro

Lo ocurrido en Venezuela ilustra una reorientación de la IA hacia usos militares. Estamos viendo cómo herramientas comerciales, entrenadas con el conocimiento colectivo de Internet y refinadas para ser “seguras”, son dirigidas hacia operaciones militares.

Para el usuario común, Claude sigue siendo el chatbot amable que ayuda a programar o escribir ensayos. Pero para el mundo, el reporte del WSJ desafía el concepto de “IA neutral”.

En el momento en que el código entra en la red segura del Pentágono, la “Constitución” de la IA queda subordinada a la Constitución de los Estados Unidos. Y en ese intercambio, la ética de Silicon Valley parece ser la primera baja confirmada.

Lee también:

Más sobre:Inteligencia artificialClaudeNicolás MaduroVenezuelaAnthropicEstados UnidosPalantirDonald TrumpPentágonoPeter ThielLLMPete HegsethNeutralidadSilicon Valley AIAI ethics tensionsUS defense technology

COMENTARIOS

Para comentar este artículo debes ser suscriptor.

Lo más leído

Plan digital + LT Beneficios por 3 meses

Comienza el año bien informado y con beneficios para ti ⭐️$3.990/mes SUSCRÍBETE