De Antropocêntrico ao Irã: Quem define os limites para o uso da IA na guerra e vigilância?

  • Categoria do post:Notícias

A Anthropic, uma empresa líder em inteligência artificial, recusou recentemente assinar um contrato com o Pentágono que permitiria ao exército dos Estados Unidos “acesso irrestrito” à sua tecnologia para “todos os fins legais”. Para assinar, o CEO da Anthropic, Dario Amodei, exigiu duas exceções claras: nenhum monitoramento em massa de americanos e nenhuma arma completamente autônoma sem supervisão humana.

No dia seguinte, os Estados Unidos e Israel lançaram uma ofensiva em larga escala contra o Irã.

Isso deixa muitos se perguntando: como seria uma guerra com armas totalmente autônomas? Quão importante foi a decisão ética de Amodei ao se referir a armas totalmente autônomas e monitoramento em massa como “linhas vermelhas” de IA que sua empresa não cruzaria? O que essas linhas vermelhas significam para outras nações?

A decisão custou muito à Anthropic. O presidente dos Estados Unidos, Donald Trump, ordenou que todas as agências americanas parassem de usar a família de modelos avançados de conversação da IA da Anthropic e os chatbots conversacionais, Claude. Pete Hegseth, secretário de defesa dos EUA, designou a Anthropic como um “risco à cadeia de suprimentos”, o que poderia afetar outras possibilidades de contrato para a empresa. E a empresa concorrente OpenAI rapidamente fechou um acordo com o Pentágono.

Os riscos das armas totalmente autônomas

Os chatbots de IA geralmente não são armas por si só, mas podem se tornar parte de sistemas de armas. Eles não disparam mísseis ou controlam drones, mas podem ser conectados aos grandes sistemas militares.

Eles podem resumir rapidamente a inteligência, gerar listas de alvos, classificar ameaças de alta prioridade e recomendar ataques. Um risco-chave é um processo que vai desde dados de sensores até interpretação de IA, seleção de alvos e ativação de armas com mínimo ou nenhum controle humano ou até mesmo consciência.

As armas totalmente autônomas são plataformas militares que, uma vez ativadas, conduzem operações militares independentemente, sem intervenção humana. Elas dependem de sensores como câmeras, radares e algoritmos de IA para analisar o ambiente, buscar, selecionar e engajar alvos.

Helicópteros avançados, por exemplo, já operam sem intervenção humana. Com armas totalmente autônomas, o controle humano e a supervisão desaparecem e a IA toma as decisões finais de ataque e campo de batalha.

Isso é preocupante, dado uma pesquisa recente na qual modelos avançados de IA optaram por usar armas nucleares em jogos de guerra simulados em 95% dos casos.

Os riscos do monitoramento em massa

Modelos de IA de fronteira podem resumir rapidamente grandes conjuntos de dados e gerar automaticamente padrões para buscar sinais de pessoas suspeitas e atividades por meio de associações até mesmo fracas. Em seu comunicado sobre as discussões da Anthropic com o Departamento de Guerra, Amodei argumentou que “a vigilância em massa impulsionada por IA apresenta riscos sérios e novos para nossas liberdades fundamentais”.

Eles podem analisar registros, comunicações e metadados para escanear populações inteiras. Eles podem produzir briefings e listas de pessoas automaticamente que sinalizam quem deve ser questionado, impedido de entrar em um país, recusado em um emprego, etc. Esses sistemas criam riscos à privacidade porque podem analisar dados de múltiplas fontes, como contas de mídia social, e combiná-los com câmeras e reconhecimento facial para rastrear pessoas em tempo real.

Os modelos de IA também podem cometer erros. Mesmo uma pequena associação errônea pode escalar perigosamente se o sistema for usado em milhões de pessoas.

Os modelos de IA também são opacos: como eles analisam dados e chegam às suas conclusões não pode ser completamente compreendido, o que aumenta a dificuldade de contestar a saída.

“Todos os fins legais”

A expressão “todos os fins legais” soa como um limite de segurança. No entanto, essa linguagem significa que o governo pode usar IA para todos os fins que considera legais, com poucos limites no contrato.

Isso importa porque a legalidade é um alvo móvel, as leis podem mudar e muitas vezes não estão equipadas para lidar em tempo real com inovações em rápida mudança, e as interpretações podem se alterar.

Isso foi o que fez a Anthropic, uma empresa fundada por ex-funcionários da OpenAI com um foco explícito em segurança e ética na IA, argumentar que a vigilância em massa habilitada por IA era um risco novo e que “fins legais” não poderiam fornecer guardiões estáveis.

A Anthropic famosamente desenvolveu um laboratório interno para entender como Claude funciona, interpreta consultas e toma decisões autônomas. Dada a opacidade dos LLMs, bem como a rapidez com que suas capacidades se desenvolvem, tais esforços são importantes.

Project Maven com apostas mais altas?

De certa forma, essa história é familiar. As empresas de tecnologia têm estado há muito na vanguarda da inovação, com grandes promessas de progresso, mas também riscos de uso indevido e consequências negativas. A comparação histórica mais próxima é o Project Maven do Google em 2018.

O Google tinha um contrato com o Pentágono para ajudar a analisar imagens de vigilância de drones. Quatro mil funcionários do Google protestaram contra o projeto, argumentando que a vigilância não deveria fazer parte da missão da empresa. O Google anunciou que não renovaria o Maven e posteriormente emitiu princípios de IA que incluíam compromissos em torno de armas e vigilância.

A situação se tornou um caso emblemático no poder do ativismo dos funcionários e da pressão pública.

O exemplo do Project Maven, no entanto, também nos lembra que a ética empresarial e a segurança da IA são questões mutáveis. No início de 2025, o Google discretamente renunciou à promessa de não usar IA para armas e vigilância na tentativa de obter novos contratos de defesa lucrativos.

A situação atual da Anthropic é, em alguns aspectos, semelhante à do Project Maven do Google: mostra uma empresa e seus líderes tentando impor limites ao uso militar da IA. Ilustra tensões que surgem quando os valores corporativos proclamados colidem com as exigências de governos e segurança nacional.

O caso da Anthropic também é distinto porque a IA generativa em 2026 é muito mais poderosa do que era há apenas alguns anos. O Project Maven era apenas sobre analisar vídeos de drones. Os modelos de hoje podem ser usados para muitas tarefas, então o risco de vazamento é maior.

LLMs como Claude podem se autoaperfeiçoar ao aprender com correções de usuários e refinar ações por meio de loops de feedback iterativos. Portanto, é preocupante o que um Claude irrestrito e seu cliente, o Pentágono, poderiam ter feito.

Quem determina os limites?

Esses eventos não são sobre a Anthropic sendo única em princípios nem sobre o Pentágono sendo único em exigências. Eles tratam de uma questão crítica que continuará voltando à medida que a IA se torna mais poderosa: quem determina os limites em relação ao uso da IA quando a segurança nacional está envolvida?

Se “todos os fins legais” se tornarem o padrão, as balizas dependerão da política e da interpretação legal. Para o Canadá e outras nações, as proteções importam. A ética não pode ser deixada para negociações contratuais e consciência corporativa.

Estes eventos ilustram as complexidades de lidar com a ética da IA na prática. Princípios e declarações de ética da IA são importantes e estão em toda parte. Ao mesmo tempo, na prática, a ética da IA é estabelecida por meio de contratos, regras de aquisição, comportamento real das várias partes e supervisão.

Os setores de defesa e públicos do Canadá estão construindo capacidade de IA e o Canadá opera em estreita colaboração com a defesa e a inteligência dos EUA. Isso significa que a linguagem e os padrões de aquisição podem se espalhar. Se “todos os fins legais” se tornarem a linguagem padrão no mercado de segurança nacional dos EUA, isso poderia pressionar o Canadá e outras nações a adotarem termos semelhantes.

A notícia tranquilizadora é que o Canadá possui ferramentas de governança que pode fortalecer e estender. A Diretiva sobre Tomada de Decisão Automatizada visa garantir que os sistemas sejam transparentes, responsáveis e justos. Isso requer avaliação de impacto e relatórios públicos.

A Avaliação de Impacto Algorítmico é uma ferramenta obrigatória de avaliação de riscos ligada à diretiva.

Mas os canadenses devem estar atentos aos desenvolvimentos em curso para verificar se os padrões de aquisição nomeiam usos proibidos, para solicitar auditorias e supervisão independente para que as proteções não dependam apenas de governos e empresas específicos no topo.