ATLAS, el controvertido programa con el que Estados Unidos quiere dotar de inteligencia artificial a sus tanques

El Departamento de Estados Unidos está buscando socios comerciales para sacar adelante un proyecto con el que espera dotar de más autonomía a sus tanques. El programa se llama ATLAS y está despertando controversia.

106008242_gettyimages-482307454

Crédito: Getty Images

¿Puede la inteligencia artificial participar en el campo de batalla?

Esa es la pregunta que está trayendo de cabeza al Departamento de Defensa de Estados Unidos, que ha tenido que clarificar recientemente sus normas sobre cómo son los robots armados automatizados que quiere instalar en su equipo.

El ejército estadounidense ha destacado que los humanos siempre tendrán la decisión final sobre el disparo para evitar cualquier acción letal por parte de las máquinas a través de un “veto”.

Estas afirmaciones se producen luego de que el organismo anunciara que quiere buscar socios para desarrollar armas inteligentes capaces de elegir sus propios objetivos en el campo de batalla.

El plan de Estados Unidos es actualizar sus equipos actuales con esa tecnología.

Se trata del proyecto ATLAS (Advanced Targeting and Lethality Automated System) -Sistema Automático Avanzado de Objetivo y Letalidad, en español- que busca proporcionar inteligencia artificial a los carros de combate para “identificar y atacar objetivos al menos el triple de rápido que con el actual proceso manual”, según la web del Ejército estadounidense.

La idea es que esos vehículos y las máquinas inteligentes proporcionen a los soldados un mayor nivel de precisión.

Pero las críticas no se han hecho esperar.

soldado disparando

Getty Images
Las normas sobre la tecnología para defensa establecen que la decisión letal final la debe tomar un humano.

“Robots asesinos”

Algunos analistas se han mostrado preocupados. Algunos de ellos integran una alianza global de grupos no gubernamentales llamada Campaign to Stop Killer Robots (Campaña para Detener a Robots Asesinos) que se formó en 2012 y ha ganado fuerza en los últimos días.

Noel Sharkey, vocero de ese grupo y profesor de inteligencia artificial y robótica en la Universidad de Sheffield, Reino Unido, le dijo a Army Technology (un sitio de noticias especializado en tecnologías para la defensa) que“no existe un control humano significativo si el arma robótica elige el objetivo y el único papel del humano es ‘vetar’ esa decisión”.

Sharkey sostiene que para que sí haya un control humano importante, éste debe poder “elegir posibles objetivos para determinar su legitimidad para cada ataque antes de disparar”.

No es el único que tiene sospechas sobre el programa.

“La controversia sobre ATLAS demuestra que persisten las objeciones tecnológicas y éticas respecto a a automatizar los sistemas de armamento”, dijo Michael C. Horowitz, politólogo de la Universidad de Pensilvania, EE.UU., en declaraciones a Defense One.

tanques

Getty Images
La automatización de los ataques despierta sospechas sobre el poder que se les da a las máquinas en el campo de batalla.

La Directiva 3000.09

“Es muy importante que cualquier revisión del programa ATLAS no solo aclare el grado de autonomía y el nivel de participación humana, sino que también garantice que cualquier incorporación de la inteligencia artificial se produzca de manera que garantice la seguridad y la fiabilidad”.

No obstante, el Departamento de Defensa dijo que siguió las normas sobre los robots armados que estipula la llamada Directiva 3000.09, una norma estadounidense según la cual cualquier acción letal siempre la decide un humano, quien además debe tener la capacidad de anular las decisiones propuestas por la máquina.

En su sitio web, el Ejército de Estados Unidos dijo que tiene “el deseo de aprovechar los avances recientes en visión computacional e inteligencia artificial/aprendizaje automático para desarrollar una tecnología de adquisición autónoma de objetivos”.

También explicó que esa tecnología -el programa ATLAS- estará integrada en sus vehículos de combate para ganar velocidad y precisión a la hora de identificar y atacar objetivos.

Por ahora, el Departamento de Defensa está buscando socios comerciales para este proyecto.

Según una encuesta elaborada por la Campaña para Detener a Robots Asesinos en enero de 2019 con encuestados de 26 países, al menos tres de cada cinco personas se oponen al desarrollo y uso de armas completamente autónomas.

militares EE.UU.

Getty Images
Estados Unidos quiere liderar este tipo de tecnología.

Ahora puedes recibir notificaciones de BBC News Mundo. Descarga nuestra app y actívalas para no perderte nuestro mejor contenido.

https://www.youtube.com/watch?v=rUrDvYJtKPU

https://www.youtube.com/watch?v=gFkihTytGRU

En esta nota

Inteligencia artificial robots Tecnología
Contenido Patrocinado
Enlaces patrocinados por Outbrain