Una decisión histórica sacudió al mundo de la Inteligencia Artificial la semana pasada. Anthropic, la empresa que desarrolla Claude AI, se negó a continuar su contrato con el Pentágono porque rechazó que su modelo se utilizará con fines bélicos. Esta valiente decisión de la empresa, le costó su contrato y la inclusión en la lista de empresas que no pueden trabajar con el gobierno federal de Estados Unidos.

En cambio, Open AI, pionera en el desarrollo de ChatGPT, tardó catorce minutos en firmar un nuevo acuerdo y poner a disposición del Pentágono toda su tecnología, con "límites flexibles" para garantizar la seguridad nacional de su país. ¿Qué es lo que está en juego? Este problema tiene varias dimensiones que ahora analizo.

El uso de Inteligencia Artificial con fines bélicos no es nuevo. Pero el rápido desarrollo de esta herramienta le ha dado un giro a toda la estrategia bélica. Ahora la información puede analizarse con mayor velocidad y menos errores, por ejemplo, el análisis de imágenes satelitales para detectar bases aéreas, lanza misiles o cualquier amenaza puede realizarse con Inteligencia Artificial en segundos y con mayor claridad y precisión.

La Inteligencia artificial permite la vigilancia del enemigo, el monitoreo de sus operaciones y por tanto un análisis de sus fuerzas y su estrategia. Al mismo tiempo puede generar escenarios elaborados considerando cientos de variables. Las preguntas: "¿Qué pasaría si lanzamos misiles en este punto? ¿Cuál sería su reacción?" pueden ser contestadas por la IA con uno o varios escenarios potenciales.

Por ello, Anthropic había puesto límites en su contrato: no se usaría la herramienta para la vigilancia de ciudadanos norteamericanos ni tampoco para estrategias de guerra. Esto último lo hizo argumentando que sus sistemas de IA "no están listos y pueden cometer errores" por lo tanto, la empresa no quería ser responsable de uno de esos "errores" que asesinara a miles de personas.

Aunque parece una decisión ética y que ayuda a las relaciones públicas de la empresa, ubica el problema en su justa dimensión: ¿Debemos permitir que la IA tome el control de las armas que nos podrían destruir? Esta pregunta es el centro de las conspiraciones contra el desarrollo de IA. No obstante, en la actualidad solo se utiliza de soporte a la decisiones, son los militares los que tienen la última palabra en el momento de la acción. Al menos, eso era lo que ocurría con Anthropic, desconocemos los límites de Open AI al Pentágono.

Otra dimensión del problema es que el uso de IA no está ocurriendo solamente en Estados Unidos. China y Rusia la han desarrollado y sus gobiernos la utilizan para tomar decisiones, aunque desconocemos su uso militar. La historia demuestra que cada nueva tecnología militar redefine los límites de la guerra. La inteligencia artificial no será la excepción. Pero la pregunta clave no es si los algoritmos podrán ayudar a ganar conflictos, sino si las sociedades están dispuestas a delegar decisiones de vida o muerte a sistemas que todavía pueden equivocarse.

Google News

TEMAS RELACIONADOS