Dilema Oppenheimer: governos discutem como regular avanço da IA em uso militar

Autoridades de mais de cem países se reúnem em Viena para discutir avanços e eventuais limites para uso da tecnologia para equipamentos de guerra

O personagem de Robert Oppenheimer, interpretado pelo ator Cillian Murphy, no filme "Oppenheimer", da Universal Studios, que ganhou sete Oscars em 2024 (Foto: Divulgação/Universal Studios)
Por Jonathan Tirone
29 de Abril, 2024 | 10:49 AM

Bloomberg — Reguladores que desejam controlar uma geração emergente de máquinas capazes de matar artificialmente inteligentes podem não ter muito tempo para fazê-lo, foram alertados os governos nesta segunda-feira (29).

À medida que os sistemas de armas autônomas proliferam rapidamente, incluindo em campos de batalha na Ucrânia e em Gaza, algoritmos e veículos aéreos não tripulados já estão ajudando os planejadores militares a decidir se devem ou não atingir alvos. Em breve, essa decisão poderia ser totalmente terceirizada para as máquinas.

“Este é o Momento Oppenheimer de nossa geração”, disse o ministro das Relações Exteriores da Áustria, Alexander Schallenberg.

Leia mais: Ataque do Irã a Israel dá início a nova fase no conflito no Oriente Médio

PUBLICIDADE

Foi uma referência a J. Robert Oppenheimer, que ajudou a desenvolver a bomba atômica nos anos 1940, depois lançada pelo governo dos Estados Unidos sobre as cidades japonesas de Hiroshima e Nagasaki, com centenas de milhares de mortos, antes de advogar por controles sobre a disseminação de armas nucleares.

A saga foi contada no filme “Oppenheimer”, lançado em 2023 e dirigido por Christopher Nolan. A obra ganhou sete Oscars, incluindo o de melhor filme, neste ano.

Autoridades civis, militares e de tecnologia de mais de cem países se reuniram nesta segunda-feira em Viena para discutir como suas economias podem controlar a fusão de IA com tecnologias militares - dois setores que recentemente animaram investidores, ajudando a impulsionar as avaliações de ações para níveis históricos.

PUBLICIDADE

O conflito global em expansão combinado com incentivos financeiros para empresas promoverem IA adiciona desafios ao controle de robôs assassinos, segundo Jaan Tallinn, investidor inicial na plataforma de IA DeepMind Technologies, da Alphabet, a holding que controla o Google.

“Os incentivos do Vale do Silício podem não estar alinhados com o restante da humanidade”, disse Tallinn.

Governos ao redor do mundo tomaram medidas para colaborar com empresas que integram ferramentas de IA na defesa.

O Pentágono está investindo milhões de dólares em startups de IA. A União Europeia na semana passada pagou ao grupo francês Thales, gigante da indústria de defesa e aeroespacial, para criar um banco de dados de imagens para ajudar a avaliar alvos no campo de batalha.

A revista +972, com sede em Tel Aviv, relatou neste mês que Israel estava usando um programa de inteligência artificial chamado “Lavender” para identificar alvos de assassinato. O relatório, que Israel contestou, disse que o sistema de IA teve um “papel central no bombardeio sem precedentes de palestinos”.

“O futuro dos robôs assassinos está aqui”, disse Anthony Aguirre, físico que previu a trajetória que a tecnologia tomaria em um curta-metragem de 2017 visto por mais de 1,6 milhão de espectadores. “Precisamos de um tratado de controle de armas negociado pela Assembleia Geral das Nações Unidas.”

Mas os defensores de soluções diplomáticas provavelmente serão frustrados, pelo menos a curto prazo, de acordo com Alexander Kmentt, o principal oficial de desarmamento da Áustria e o arquiteto da conferência desta semana.

PUBLICIDADE

“Uma abordagem clássica de controle de armas não funciona porque não estamos falando de um único sistema de armas, mas de uma combinação de tecnologias de uso duplo”, disse Kmentt em entrevista.

Leia mais: Nova solução da OpenAI imita a voz de pessoas e amplia preocupação com deepfake

Em vez de elaborar um novo tratado “magnum opus”, Kmentt insinuou que os países podem ser obrigados a lidar com as ferramentas legais já disponíveis. Aplicar controles de exportação e leis humanitárias poderia ajudar a manter o espalhamento de sistemas de armas com IA sob controle, disse ele.

A longo prazo, depois que a tecnologia se tornar acessível a atores não estatais e potencialmente a terroristas, os países serão obrigados a escrever novas regras, previu Arnoldo André Tinoco, ministro das Relações Exteriores da Costa Rica.

PUBLICIDADE

“A fácil disponibilidade de armas autônomas remove limitações que garantiam que apenas alguns pudessem entrar na corrida armamentista”, disse ele.

“Agora, estudantes com uma impressora 3D e conhecimentos básicos de programação podem criar drones com capacidade de causar baixas generalizadas. Os sistemas de armas autônomas mudaram para sempre o conceito de estabilidade internacional.”

Veja mais em Bloomberg.com