A política do Departamento de Defesa dos Estados Unidos já veda o lançamento de armas nucleares por meio da inteligência artificial. No entanto, diante dos temores crescentes em relação à inteligência artificial, motivados por diversas ameaças potenciais, um grupo bipartidário de legisladores tomou a decisão de tomar medidas ainda mais severas.
O senador Edward Markey (D-MA) e os representantes Ted Lieu (D-CA), Don Beyer (D-VA) e Ken Buck (R-CO) anunciaram a apresentação do Bloco de Lançamento Nuclear da Lei Autônoma AI, que “proíbe o uso de fundos federais para o lançamento de armas nucleares em um sistema de armas autônomas que não é controlado de forma significativa pelo ser humano”. Esta medida codificaria as atuais regras do Pentágono para armas nucleares, que, a partir de 2022, exigirão aprovação explícita do Presidente dos Estados Unidos para lançar uma arma nuclear.
Em todos os casos, os Estados Unidos preservarão um senso de humanidade ao informar e aplicar as decisões do presidente para iniciar e cessar o uso de armas nucleares.
Nenhum sistema autônomo deve ser permitido a empregar uma arma nuclear ou “selecionar e envolver alvos” com a intenção de lançar uma, sem uma supervisão humana considerável. O projeto de lei declara que qualquer escolha de usar uma arma nuclear não deveria ser feita por uma inteligência artificial.
A Comissão de Segurança Nacional de 2021 recomendou firmemente uma proibição de lançamento de armas nucleares autônomas, para evitar que isso aconteça dentro do governo dos EUA, bem como para estimular compromissos semelhantes da China e da Rússia. O projeto de lei destaca os perigos potenciais dos sistemas de inteligência artificial autônoma de geração atual, uma preocupação global no Congresso e no setor técnico. Além disso, ele oferece uma chance de evidenciar os outros esforços de não proliferação nuclear de seus patrocinadores, como uma lei recente que restringe o poder do presidente para declarar unilateralmente a guerra nuclear.