Alerta en la Fuerza Aérea de EEUU luego que jefe de operaciones de IA revelara acontecimiento “inesperado”

El coronel Tucker ‘Cinco’ Hamilton, jefe de pruebas y operaciones de IA de la fuerza aérea estadounidense reveló el incidente.

 

 

Luego de que un alto oficial de EEUU afirmó que durante un ejercicio llevado a cabo el mes pasado un dron controlado por Inteligencia Artificial (IA) había decidido “matar” a su operador, una vocera de la Fuerza Aérea salió a negar la realización de ese simulacro y alimentó aún más la polémica sobre este tema.





Por: Diario Popular

El coronel Tucker ‘Cinco’ Hamilton, jefe de pruebas y operaciones de IA de la fuerza aérea estadounidense, detalló la operación durante la Cumbre de Capacidades Futuras de Combate Aéreo y Espacial llevada a cabo en Londres, Inglaterra.

Según este mando militar, la misión que se le encomendó al dron consistía en destruir los sistemas de defensa aérea enemigos y atacar, si era preciso, a cualquiera que interfiriera con esa orden.

Según su relato, Hamilton participó en la prueba virtual y reveló que el dron militar decidió “matar” a su operador para evitar que interfiriera en sus esfuerzos por cumplir su misión. Cabe aclarar que ninguna persona real resultó herida, ya que el experimento descrito fue una simulación militar.

Esto salió a la luz gracias a la publicación que hizo el diario británico The Guardian, que sólo tuvo acceso a la información semanas después de que se produjera el citado experimento.

Según el coronel, que es piloto de pruebas experimentales de cazas, el sistema de IA utilizó “estrategias altamente inesperadas para lograr su objetivo” durante la prueba simulada. En algunas ocasiones, el operador humano le decía al dron que no matara una amenaza, pero como el dron obtenía puntos al matarla (como si se tratara de un videojuego), lo hizo.

Es más, acabó eliminando también al propio operador porque lo consideraba un obstáculo para lograr su objetivo, así como también destruyó la torre de comunicaciones que el operador utilizaba para comunicarse.

Al igual que otros expertos en IA, el militar advirtió sobre la dependencia excesiva de la IA y pidió que se aborde el debate sobre la ética de la inteligencia artificial y la autonomía con la que funcionan estos sistemas de aprendizaje automático.

La Real Sociedad Aeronáutica, que organizó la conferencia en Londres, y la Fuerza Aérea de EEU de momento no realizaron comentarios oficiales sobre la realización o no de este simulacro. No obstante, la portavoz de la Fuerza Aérea estadounidense, Ann Stefanek, negó que se hubiera llevado a cabo tal simulación.

“El Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, le dijo Stefanek al medio Business Insider. “Los comentarios del coronel fueron sacados de contexto y son anecdóticos”, aseguró.