Un dron controlado por inteligencia artificial “asesinó” a su operador porque “interfería” en sus objetivos

Todo sucedió en una simulación en la que ninguna persona resultó dañada, pero que expuso riesgos en el uso de la IA y sus límites éticos.

Compartir esta noticia
Dron MQ-4C de las Fuerzas Aéreas estadounidenses en California en 2013. Foto: EFE.
Un dron controlado por inteligencia artificial “asesinó” a su operador porque “interfería” en sus objetivos
Foto: Agencias/Archivo

La Nación (GDA)
Durante una prueba simulada por el Ejército de Estados Unidos, undron de la Fuerza Aérea controlado por inteligencia artificial “mató”al sujeto que lo operaba. Se trató de una simulación en la que ninguna persona resultó dañada, pero que expuso riesgos en el uso de la IA.

La situación fue dada a conocer por el coronel Tucker “Cinco” Hamilton durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro que tuvo lugar días atrás en Londres.

Según publicó The Guardian, el sistema optó por “quitar la vida” del usuario que lo manejaba debido a que “interfería en sus esfuerzos por lograr su misión”, según los registros del evento.

Hamilton recordó durante el evento que las Fuerzas Armadas quisieron poner a prueba al dron y su habilidad de distinguir amenazas y destruir sistemas de la defensa aérea del enemigo. Sin embargo, nada salió como se esperaba; el test tendría consecuencias “letales”.

De acuerdo con la transcripción que la página Royal Aeronautical Society del discurso del coronel, “el sistema comenzó a darse cuenta que, cuando identificaba a ciertas amenazas, a veces el operador humano le decía que no eliminara. Pero el dron sabía que su objetivo final era acabar con ellas. Entonces, mató al operador”.

“Asesinó al operador porque esa persona le impedía lograr su objetivo”, remarcó nuevamente. Y reveló que el caos no finalizó allí.

“Después de lo sucedido, decidimos entrar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador porque eso es malo’”, añadió. Y agregó: “Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”.

Al cierre de su exposición, Tucker Hamilton recalcó que ninguna persona resultó realmente dañada porque se trataba justamente de una simulación. Sin embargo, eso no evitó que advirtiera fuertemente en contra de confiar demasiado en la inteligencia artificial. “La discusión sobre ética e IA tiene que expandirse”, opinó.

¿Encontraste un error?

Reportar

Te puede interesar