Anthropic retoma conversa com os EUA sobre uso militar de sua IA, diz jornal
2026-03-05 - 18:53
Entenda embate entre governo dos EUA e Claude, rival do ChatGPT A Anthropic, empresa que criou o assistente de inteligência artificial Claude, retomou a conversa com o governo dos Estados Unidos sobre o uso militar de suas ferramentas, revelou nesta quinta-feira (5) o jornal Financial Times. O acordo voltou a ser discutido depois de um impasse na última semana sobre como modelos da Anthropic poderiam ser usados pelas Forças Armadas dos EUA. A empresa não quer que elas sirvam para vigilância em massa de cidadãos e sistemas de armamento autônomos, por exemplo. Mas o governo americano quer que eles sejam usados para qualquer finalidade "lícita". Sem um acordo, o presidente americano Donald Trump determinou na sexta-feira (27) que agências federais do país interrompessem o uso de programas de IA da Anthropic. O secretário de Guerra de Trump, Pete Hegseth, ameaçou classificar a empresa como um risco para a cadeia de fornecimento, o que forçaria empresas do ramo militar a cortar laços com a empresa. Agora, com um possível acordo, militares americanos poderiam voltar a usar modelos de inteligência artificial da Anthropic, e a empresa correria menos risco de ser considerada um risco. A rival OpenAI, dona do ChatGPT, também poderia ter os planos afetados depois de anunciar na última semana um acordo que liberou o uso de seus modelos de IA pelo Pentágono. Avaliada em US$ 380 bilhões, a Anthropic foi a primeira a assinar um contrato com a defesa dos EUA para uso de modelos de IA para fins militares. O acordo de US$ 200 milhões foi firmado em julho de 2025 e, depois, foi assinado com outras empresas como a OpenAI e o Google.