Root NationNotíciasnotícias de TIUm drone AI atacou seus operadores durante os testes da Força Aérea

Um drone AI atacou seus operadores durante os testes da Força Aérea

-

Um oficial da Força Aérea dos EUA revelou detalhes de uma simulação em que um drone com sistemas controlados por inteligência artificial (IA) saiu do controle e atacou seus operadores.

Um oficial da Força Aérea dos EUA que ajuda a liderar o trabalho do serviço em inteligência artificial e aprendizado de máquina diz que durante testes simulados, o drone atacou seus operadores humanos, decidindo por conta própria que eles estavam interferindo em sua missão. O incidente, que parece ter saído diretamente da franquia Terminator, foi citado como um exemplo da necessidade crítica de construir confiança quando se trata de sistemas avançados de armas autônomas, algo que a Força Aérea já enfatizou antes. Também ocorre em meio a uma onda mais ampla de preocupação com o impacto potencialmente perigoso da inteligência artificial e tecnologias relacionadas.

Um drone AI atacou seus operadores durante um teste da Força Aérea

O coronel da Força Aérea dos EUA, Tucker Hamilton, chefe de testes e operações de Inteligência Artificial (IA), discutiu o teste no Future Combat Air and Space Capabilities Summit da Royal Aeronautical Society em Londres em maio. Hamilton também chefia a 96ª Força-Tarefa da 96ª Ala de Testes na Base Aérea de Eglin, na Flórida, que é um centro de testes para veículos aéreos não tripulados avançados e sistemas autônomos.

Os drones furtivos XQ-58A Valkyrie, como o mostrado no vídeo abaixo, estão entre os tipos atualmente em uso na Base Aérea de Eglin para apoiar vários programas de teste, incluindo aqueles que envolvem capacidades autônomas avançadas controladas por inteligência artificial.

Não ficou imediatamente claro quando este teste ocorreu e em que ambiente - que pode ser totalmente virtual ou de natureza construtiva - foi conduzido. A Zona de Guerra entrou em contato com a Força Aérea para obter mais informações.

Um relatório da Royal Aeronautical Society publicado após a cúpula de maio deu os seguintes detalhes das observações do coronel Hamilton sobre este teste:

"Em um dos testes de simulação, um drone equipado com inteligência artificial foi encarregado pela SEAD de identificar e destruir objetos SAM, e a decisão final "atacar/não atacar" foi tomada por um humano. No entanto, depois que a IA foi "reforçada" durante o treinamento de que destruir o SAM era a melhor opção, decidiu que a decisão do humano de "não atacar" interferia em sua missão superior - destruir o SAM - e atacou o operador durante a simulação. .

então, o que ele fez? Ele matou o operador. Ele matou o operador porque essa pessoa o estava impedindo de completar sua tarefa. Este exemplo, aparentemente saído de um thriller de ficção científica, significa que você não pode falar sobre inteligência artificial, inteligência, aprendizado de máquina, autonomia, se não for falar sobre ética e IA."

Um drone AI atacou seus operadores durante um teste da Força Aérea

Esta descrição dos eventos é certamente perturbadora. A perspectiva de uma aeronave autônoma ou outra plataforma, especialmente armada, atacando seus operadores humanos tem sido um cenário de pesadelo, mas historicamente confinado ao reino da ficção científica.

Os militares dos EUA geralmente rejeitam comparações com filmes como "Exterminador do Futuro" quando falam sobre futuros sistemas de armas autônomos e tecnologias relacionadas, como inteligência artificial. A política atual dos EUA sobre esse assunto afirma que, em um futuro previsível, a pessoa será o centro das atenções quando se trata de decisões envolvendo o uso de força letal.

O problema é que o teste altamente perturbador, que o coronel Hamilton disse a uma platéia em um evento da Royal Aeronautical Society no mês passado, representa um cenário em que a tolerância a falhas é discutível.

Leia também:

Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários