Inteligencia artificial habría sido clave en operación militar contra Nicolás Maduro
El modelo de inteligencia artificial Claude, desarrollado por la empresa estadounidense Anthropic, habría sido utilizado por el gobierno de Estados Unidos durante la operación militar que resultó en la captura del expresidente venezolano Nicolás Maduro, según reveló el Wall Street Journal este viernes.
Esta información, que aún no ha sido verificada de forma independiente, marca un precedente significativo en el uso de tecnologías avanzadas para operaciones de seguridad nacional y plantea importantes interrogantes sobre los límites éticos y legales del empleo de inteligencia artificial en contextos militares.
Colaboración tecnológica sin precedentes
Según el reporte del WSJ, el despliegue de Claude se habría ejecutado mediante una alianza estratégica entre Anthropic y Palantir Technologies, empresa especializada en análisis de datos que mantiene contratos regulares con el Departamento de Defensa estadounidense y diversas agencias federales de seguridad.
Esta colaboración habría permitido integrar capacidades de inteligencia artificial en el operativo que condujo a la aprehensión del exmandatario venezolano a principios de enero. La operación representa un hito en la aplicación de tecnologías emergentes para misiones de alto perfil por parte de las fuerzas estadounidenses.
Ausencia de confirmación oficial
Hasta el momento, ni el Departamento de Defensa de Estados Unidos, ni la Casa Blanca, ni las empresas Anthropic y Palantir han respondido a las solicitudes de comentarios realizadas por agencias internacionales de noticias como Reuters, lo que mantiene la información en el ámbito de las versiones no confirmadas.
Esta falta de verificación independiente subraya la necesidad de cautela al evaluar el alcance real de la participación de estas tecnologías en operaciones militares clasificadas.
Tendencia creciente en el sector militar
El uso de herramientas de inteligencia artificial en operaciones militares forma parte de una tendencia más amplia. El Pentágono está promoviendo activamente que las principales empresas del sector, incluyendo OpenAI y Anthropic, pongan sus tecnologías a disposición en redes clasificadas.
Actualmente, Anthropic se distingue por ser la única firma cuyos modelos están accesibles en entornos clasificados, aunque sea a través de terceros. Sin embargo, el gobierno permanece sujeto a las políticas de uso establecidas por la compañía.
Dilemas éticos y regulatorios
Las políticas corporativas de Anthropic, empresa que recientemente recaudó 30.000 millones de dólares y alcanzó una valoración de 380.000 millones, prohíben explícitamente utilizar Claude para apoyar actos de violencia, diseñar armas o realizar tareas de vigilancia.
Esta restricción plantea interrogantes fundamentales sobre el marco legal y ético que regula la participación de inteligencia artificial en operaciones militares, especialmente cuando estas involucran el uso de la fuerza en territorio extranjero.
La captura de Maduro, ejecutada el 3 de enero mediante una incursión militar en territorio venezolano, y su posterior traslado a Nueva York para enfrentar cargos relacionados con tráfico de drogas, representa un caso paradigmático que podría establecer precedentes para futuras operaciones que incorporen tecnologías de inteligencia artificial.
Este desarrollo tecnológico en el ámbito de la seguridad nacional plantea desafíos importantes para la regulación internacional y la supervisión democrática de las capacidades militares emergentes.