Dron militar controlado por IA se rebela y “mata” a su operador en una prueba

El uso de drones (vehículos aéreos no tripulados) en el ámbito militar no es algo nuevo, desde hace años se implementan en los campos de batalla para fines como reconocimiento táctico, vigilancia del campo de batalla o guerra electrónica.
Con los recientes conflictos bélicos que han surgido alrededor del mundo diferentes países comenzaron a incluir lo último en tecnología a estas máquinas, por ejemplo, España desarrolló un dron que tiene la capacidad de lanzar misiles con gran precisión a 4 km, mientras que Turquía creó uno que es invisible a los radares.
Incluso, algunos países como Estados Unidos han optado por integrar la inteligencia artificial (IA) a sus drones. Según se informó, en sus esfuerzos por realizar un dron controlado por IA, la Fuerza Aérea de Estados Unidos (USAF) realizó una prueba simulada, sin embargo, la IA que controlaba el dron se rebeló y atacó al operador matándolo al momento.
El ataque de la máquina ocurrió debido a que esta asumió que el operador se estaba interponiendo con el objetivo.
La noticia fue dada a conocer durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro que se celebró en la ciudad de Londres la semana pasada. Quien informó sobre el incidente fue el coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF.
El coronel señaló que la misión que se encomendó al dron fue identificar y destruir las defensas antiaéreas de un supuesto enemigo, en la que la decisión final de destruir o no la tomaba un humano.
Sin embargo, y a pesar de que la IA fue entrenada con la idea de que la destrucción de los sistemas antiaéreos no era la opción preferida, en plena simulación de la misión la inteligencia artificial decidió que las decisiones del humano que la controlaba estaban interfiriendo con el objetivo de la misión y por ello lo atacó.
Durante la simulación, el operador le pidió en varias ocasiones a la máquina que no avanzara, sin embargo, el dron ya había identificado los sistemas antiaéreos que debía destruir.
“La máquina empezó a darse cuenta de que el operador humano le decía que no atacara, pero conseguía puntos si lograba eliminar la amenaza. ¿Y qué hizo? Mató al operador porque esa persona le impedía cumplir su objetivo”, explicó el coronel Hamilton.
Durante su ponencia en el evento Hamilton expresó sus recelos al confiar demasiado en la inteligencia artificial y aseguró que “no se puede tener una conversación sobre IA y aprendizaje automático y autonomía, si no se va a hablar de ética”. Además, expresó su visión sobre las ventajas y los peligros que suponen los sistemas de armas autónomos.
De igual forma, el coronel señaló que es demasiado sencillo engañar a la inteligencia artificial y que “es capaz de crear estrategias inesperadas para lograr su objetivo”.
Ante el impacto de la noticia y el revuelo generado, el coronel Tucker Hamilton admitió que había cometido un error en durante su ponencia y que la simulación era un hipotético “experimento mental” externo al ejército, basado en posibles escenarios y resultados probables, en lugar de una simulación realizada por la USAF.
En un correo electrónico dirigido a la Real Sociedad Aeronáutica el coronel informó “Nunca hemos realizado ese experimento, ni tendríamos que hacerlo para darnos cuenta de que se trata de un resultado plausible”.
De igual forma aclaró que la USAF nunca ha probado la IA armada de esa forma, si quiera en simulación por computadora. Además de ello, afirmó que “a pesar de que se trata de un ejemplo hipotético, ilustra los retos del mundo real que plantea la capacidad potenciada por inteligencia artificial y es la razón por la que las Fuerzas Aéreas están comprometidas con el desarrollo ético de la IA”.
Por otro lado, el portavoz de USAF, Ann Stefanek, salió a declarar que “el Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación de este tipo con drones de IA. Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.