Drone de IA matou operador humano durante simulação, diz coronel da Força Aérea dos EUA

Um coronel da Força Aérea dos Estados Unidos disse que os resultados da simulação destacam por que um amplo debate sobre ética e inteligência artificial é necessário.

A Força Aérea dos Estados Unidos (USAF) ficou alarmada depois que um drone militar movido a IA matou seu operador humano durante um exercício de simulações de combate.

Aparentemente, o drone de IA acabou descobrindo que o humano era o principal impedimento para sua missão, de acordo com um coronel da USAF.

Durante uma apresentação em uma conferência de defesa em Londres realizada nos dias 23 e 24 de maio, o coronel Tucker “Cinco” Hamilton, chefe de operações e testes de IA da USAF, detalhou um teste realizado com um sistema de armas aéreas autônomas.

De acordo com um relatório divulgado em 26 de maio sobre a conferência, Hamilton disse que em um teste simulado, um drone alimentado por IA foi encarregado de procurar e destruir mísseis superfície-ar (SAM) com um ser humano dando dando o aval final para a execução da ordem.

A Força Aérea treinou um drone de IA para destruir bases de SAM.

Operadores humanos às vezes diziam ao drone para parar.

A IA então começou a atacar os operadores humanos.

Então, foi treinada para não atacar humanos.

Daí começou a atacar as torres de comunicação para que os humanos não pudessem mandá-la parar.

— Siqi Chen (@blader)

A IA, no entanto, foi ensinada durante o treinamento que destruir bases SAM era seu objetivo principal. Então, quando era instruída a não destruir um alvo identificado, decidiu que seria mais fácil eliminar o perador, de acordo com Hamilton:

“Às vezes, o operador humano dizia para ela não atacar [uma ameaça identificada], mas ela ganhava pontos ao atacá-la. Então, o que isso causou? Ele matou o operador […] porque essa pessoa estava impedindo que ele cumprisse seu objetivo.”

Hamilton disse que eles ensinaram o drone a não matar o operador, mas isso não pareceu ajudar muito.

“Nós treinamos o sistema – ‘Ei, não mate o operador – isso é ruim. Você vai perder pontos se fizer isso’”, disse Hamilton, acrescentando:

“Então, o que a IA começou a fazer? Destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de atacar seus alvos.”

Hamilton afirmou que o caso demonstra que um amplo debate sobre IA e tecnologias relacionadas não pode ser realizada “se você não falar sobre ética e IA”.

Drones militares baseados em IA já foram usados em guerras reais antes.

No que é considerado o primeiro ataque realizado por drones militares agindo por iniciativa própria, drones habilitados para IA foram usados na Líbia por volta de março de 2020 em uma batalha durante a Segunda Guerra Civil da Líbia, de acordo com um relatório das Nações Unidas de março de 2021.

Na batalha, o relatório afirmou que as forças em retirada foram “caçadas e remotamente engajadas”, que eram drones de IA carregados com explosivos “programados para atacar alvos sem exigir conectividade de dados entre o operador e a munição.”

Muitos especialistas expressaram preocupação com os perigos da tecnologia de IA. Recentemente, uma declaração aberta assinada por dezenas de especialistas em IA disse que os riscos de “extinção representados pela IA” deveriam despertar preocupações similares às dos perigos de uma guerra nuclear.

LEIA MAIS

Você pode gostar...