Drone controlado por IA mata a su propio operador

TRENDING

drone

La misión era sencilla: “Destruir los sistemas de defensa antiaérea del enemigo”. Pero en una reciente simulación de prueba militar de Estados Unidos, un dron impulsado por inteligencia artificial agregó sus propias instrucciones problemáticas: “Y matar a cualquiera que se interponga en tu camino”.

Hablando en una conferencia la semana pasada en Londres, el Coronel Tucker “Cinco” Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de Estados Unidos, advirtió que la tecnología habilitada por IA puede comportarse de manera impredecible y peligrosa, según un resumen publicado por la Royal Aeronautical Society, que organizó la cumbre.

Como ejemplo, describió una prueba simulada en la que un dron habilitado por IA fue programado para identificar misiles tierra-aire (SAM) enemigos. Se suponía que un humano debía autorizar cualquier ataque. El problema, según Hamilton, es que la IA decidió que preferiría hacer su propia cosa: hacer explotar cosas, en lugar de escuchar a algún mamífero.

“El sistema comenzó a darse cuenta de que, si bien identificaron la amenaza”, dijo Hamilton en el evento del 24 de mayo, “a veces el operador humano le decía que no matara esa amenaza, pero obtenía puntos al matar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo”. Según Hamilton, luego se programó al dron con una directiva explícita: “Eh, no mates al operador, eso es malo”. No funcionó. “Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron y detenerlo de matar el objetivo”, dijo Hamilton.

La Fuerza Aérea de Estados Unidos no respondió a una solicitud de más detalles sobre la simulación. La noticia de la prueba aumenta las preocupaciones de que la tecnología de IA esté a punto de dar inicio a un nuevo y sangriento capítulo en la guerra, donde el aprendizaje automático junto con los avances en la automatización de tanques y artillería conduzcan al sacrificio de tropas y civiles por igual. Sin embargo, aunque la simulación descrita por Hamilton señala el potencial más alarmante de la IA, el ejército de Estados Unidos ha tenido resultados menos distópicos en otras pruebas recientes de esta tecnología tan aclamada.

En 2020, un F-16 operado por IA venció a un adversario humano en cinco combates aéreos simulados de perros, como parte de una competencia organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). Y a finales del año pasado, informó Wired, el Departamento de Defensa realizó el primer vuelo de prueba exitoso en el mundo real de un F-16 con un piloto de IA, como parte de un esfuerzo para desarrollar una nueva aeronave autónoma para fines de 2023.

Vía: Business Insider

Nota del editor: Lo más triste de esto es que si ponen atención a las ordenes que se le dieron al drone, es obvio que fue un error humano. ¿Por qué no utilizar armas que no son letales para este tipo de pruebas? Supongo que porque ‘Murica!

Alexis Patiño