quarta-feira, março 25, 2026

Caso da Anthropic abre as portas para debate sobre futuro da guerra com IA

O caso que envolve a norte-americana de IA Anthropic e os EUA abre as portas do debate sobre o futuro da guerra, na medida em que a inteligência artificial é cada vez mais incorporada no setor militar. À boleia deste caso, a senadora democrata Elissa Slotkin, membro da Comissão de Serviços Armados do Senado, apresentou recentemente uma proposta de lei que procura limitar o uso de IA pelo Departamento de Guerra.

Mais concretamente, a proposta estipula que a IA não pode ser utilizada pelo Pentágono para decidir autonomamente sobre o alvo de um ataque ou para realizar vigilância em massa de cidadãos norte-americanos, dois pontos que colocaram a Anthropic em rota de colisão com o Pentágono. A Time, num artigo sobre o tema, refere que a “Anthropic viu-se numa disputa sobre o futuro da guerra”, recordando que durante mais de um ano, o seu modelo de IA Claude era a escolha do Governo norte-americano e “o primeiro sistema de fronteira autorizado ara uso classificado [confidencial]”. E já tinha sido usado em operações militares.

Aliás, em 15 de fevereiro, o Wall Street Journal noticiou que o Claude tinha sido utilizado, através de uma parceria da Anthropic com a Palantir Technologies, empresa contratada do Departamento de Defesa, para retirar o Presidente Nicolás Maduro da Venezuela. Contudo, as relações entre a tecnológica e o Pentágono deterioram-se nas semanas seguintes e, em 27 de fevereiro, este último anunciou que estava a classificar a Anthropic como um risco para a cadeia de fornecedores, após falharem negociações contratuais. A classificação significa que a Anthropic perde os seus contratos governamentais, como também passa a ser incluída no rol de empresas como a chinesa Huawei, representando uma ameaça à segurança nacional dos EUA, como sintetizou o Financial Times (FT).

Esta é a primeira vez, ao que se sabe, que uma empresa norte-americana é rotulada com esta classificação. O secretário da Defesa norte-americano, Pete Hegseth, advertiu que quem fizer negócios com o Governo norte-americano estava proibido de ter relações contratuais com a Anthropic. De acordo com o FT, menos de 24 horas depois de ter sido incluída no rol de empresas de risco, “foi noticiado que a tecnologia da Anthropic tinha sido utilizada na Operação Epic Fury contra o Irão”.

Basicamente, o que está em causa é a legitimidade de um Estado impor limites a uma tecnologia que é considerada disruptiva e crítica para os EUA. A Anthropic até estava satisfeita com o uso do Claude em combates, argumentando que o reforço das forças armadas norte-americanas era a única forma evitar a ameaça de Estados autoritários como a China, como escreveu a Time. Contudo, na mesa das negociações, o presidente executivo (CEO) da tecnológica, Dario Amodei, rejeitou a renegociação dos contratos governamentais com o Pentágono que previam o uso militar irrestrito da sua tecnologia.

Em causa estava o facto de Dario Amodei rejeitar que a sua IA fosse usada em sistemas de armas sem supervisão (autónomos) ou para realizar vigilância em massa de cidadãos norte-americanos. Em 09 de março, a Anthropic avançou com um processo contra o Governo norte-americano. Criada em 2021, a Anthropic já angariou 60 mil milhões de dólares (52 mil milhões de euros) até à data e as receitas anuais do grupo rondam os 19 mil milhões de dólares (mais de 16 mil milhões de euros), segundo o FT.

Entretanto, a concorrente OpenAI, dona do ChatGPT, assinou um contrato militar. Na sequência disso, Caitlin Kalinowski, que liderava a equipa de hardware da OpenAI, anunciou a demissão, manifestando preocupações com o uso de IA para vigilância e armas autónomas letais. O interesse da OpenAI na defesa não se fica apenas pelo Pentágono. O seu CEO, Sam Altman, admitiu recentemente que a tecnológica tem interesse em prestar serviços de IA à NATO, chegando por esta via à Europa (Executive Digest com Lusa, texto da jornalista Alexandra Luís, da Lusa)

Sem comentários: