VER RESUMEN

Resumen generado con una herramienta de Inteligencia Artificial desarrollada por BioBioChile y revisado por el autor de este artículo.

El modelo de inteligencia artificial Claude, creado por Anthropic, habría sido empleado por el gobierno de EE. UU. en la operación que llevó a la captura de Nicolás Maduro según el Wall Street Journal. Esta colaboración con Palantir Technologies permitió integrar capacidades de IA en la misión. Aunque la información no ha sido verificada, se destaca el uso creciente de tecnologías avanzadas en operaciones militares. Anthropic, firma que recientemente recaudó 30.000 millones de dólares, es la única con modelos accesibles en entornos clasificados.

El modelo de inteligencia artificial Claude, desarrollado por la empresa Anthropic, habría sido utilizado por el gobierno de Estados Unidos durante la incursión militar que resultó en la captura del expresidente venezolano Nicolás Maduro. Así lo reveló este viernes el Wall Street Journal, citando a fuentes familiarizadas con la operación.

El hecho marca un hito en el uso de tecnologías avanzadas en misiones de alto perfil por parte de las fuerzas estadounidenses, consignó el WSJ.

De acuerdo con el medio, el despliegue de Claude se habría llevado a cabo a través de una alianza entre Anthropic y la compañía de datos Palantir Technologies, cuyas plataformas son ampliamente utilizadas por el Departamento de Defensa y agencias federales de seguridad. Esta colaboración habría permitido integrar capacidades de inteligencia artificial en el operativo que condujo a la aprehensión del exmandatario venezolano a principios de enero.

La información entregada por el Wall Street Journal no ha podido ser verificada de forma independiente por otros medios como Reuters. Hasta el momento, ni el Departamento de Defensa de Estados Unidos, ni la Casa Blanca, ni las empresas Anthropic y Palantir han respondido a las solicitudes de comentarios realizadas por las agencias de noticias.

El uso de herramientas de inteligencia artificial en operaciones militares no es un hecho aislado. Según publicó Reuters, el Pentágono está impulsando a las principales empresas del sector —incluyendo a OpenAI y a la propia Anthropic— para que pongan sus tecnologías a disposición en redes clasificadas. La intención es flexibilizar las restricciones habituales que estas compañías imponen a los usuarios y dejarlas con sus máximas capacidades a disposición de las entidades gubernamentales de Estados Unidos.

Despliegue en entornos clasificados y límites éticos

Actualmente, varias empresas de inteligencia artificial desarrollan herramientas personalizadas para el ejército estadounidense, aunque la mayoría de ellas solo están disponibles en redes no clasificadas, utilizadas principalmente para labores de administración militar. En este contexto, Anthropic destaca por ser la única firma cuyos modelos están accesibles en entornos clasificados, aunque sea a través de terceros. Pese a ello, el gobierno sigue sujeto a las políticas de uso establecidas por la compañía.

Las políticas de Anthropic, que recientemente recaudó 30.000 millones de dólares en su última ronda de financiación y alcanzó una valoración de 380.000 millones, prohíben explícitamente utilizar a Claude para apoyar actos de violencia, diseñar armas o llevar a cabo tareas de vigilancia. Esta restricción plantea interrogantes sobre cómo se enmarca legal y éticamente su participación en una operación militar como la que resultó en la captura de Maduro, cuestionó Reuters.

Recordemos que Estados Unidos concretó la captura del expresidente venezolano Nicolás Maduro el pasado 3 de enero, en el marco de una irrupción militar en territorio venezolano. Tras su aprehensión, fue trasladado rápidamente a Nueva York para enfrentar cargos relacionados con tráfico de drogas.