História: Fred Lewsey.
Uma investigação sobre 30 principais agentes de inteligência artificial revela que apenas quatro publicaram documentos formais de segurança e avaliação relacionados aos bots reais.
Muitos de nós agora usamos chatbots de IA para planejar refeições e escrever e-mails, navegadores da web aprimorados por IA para reservar viagens e comprar ingressos, e IA no ambiente de trabalho para gerar faturas e relatórios de desempenho. No entanto, um novo estudo sobre o “ecossistema de agentes de IA” sugere que, à medida que esses bots de IA se tornam rapidamente parte da vida cotidiana, a divulgação básica de segurança está “perigosamente atrasada”.
Uma equipe de pesquisa liderada pela Universidade de Cambridge descobriu que os desenvolvedores de IA compartilham muitos dados sobre o que esses agentes podem fazer, ao mesmo tempo que retêm evidências das práticas de segurança necessárias para avaliar os riscos que a IA possa representar.
O AI Agent Index, um projeto que inclui pesquisadores do MIT, Stanford e da Universidade Hebraica de Jerusalém, investigou as habilidades, transparência e segurança de trinta “agentes de IA de ponta”, com base em informações públicas e correspondência com os desenvolvedores. A última atualização do Índice é liderada por Leon Staufer, um pesquisador estudando para um MPhil no Centro Leverhulme para o Futuro da Inteligência da Universidade de Cambridge. O estudo analisou os dados disponíveis para uma série de principais chatbots, navegadores e bots de IA de fluxo de trabalho construídos principalmente nos EUA e na China.
A equipe encontrou uma “lacuna significativa de transparência”. Os desenvolvedores de apenas quatro bots de IA no Índice publicam “cartões de sistema” específicos do agente: documentos formais de segurança e avaliação que cobrem desde os níveis de autonomia e comportamento até análises de risco do mundo real. Além disso, 25 dos 30 agentes de IA no Índice não divulgam resultados internos de segurança, enquanto 23 dos 30 agentes não fornecem dados de testes de terceiros, apesar desses serem a evidência empírica necessária para avaliar rigorosamente o risco.
Incidentes ou preocupações de segurança conhecidos só foram publicados para cinco agentes de IA, enquanto “vulnerabilidades de injeção rápida” – quando instruções maliciosas manipulam o agente para ignorar salvaguardas – são documentadas para dois desses agentes. Dos cinco agentes de IA chineses analisados no Índice, apenas um publicou algum tipo de estrutura ou padrão de conformidade de segurança.
“Muitos desenvolvedores marcam a caixa de segurança da IA concentrando-se no grande modelo de linguagem subjacente, ao mesmo tempo que fornecem pouca ou nenhuma divulgação sobre a segurança dos agentes construídos sobre ele”, disse Leon Staufer, da Universidade de Cambridge, autor principal da atualização do Índice.
“Comportamentos críticos para a segurança da IA surgem do planejamento, ferramentas, memória e políticas do próprio agente, não apenas do modelo subjacente, e muito poucos desenvolvedores compartilham essas avaliações.”
De fato, os pesquisadores identificam 13 agentes de IA que exibem “níveis de fronteira” de autonomia, mas apenas quatro deles divulgam avaliações de segurança do próprio bot.
“Os desenvolvedores publicam estruturas amplas de segurança e ética de alto nível que soam tranquilizadoras, mas estão publicando evidências empíricas limitadas necessárias para realmente entender os riscos”, disse Staufer.
“Os desenvolvedores são muito mais receptivos sobre as capacidades de seus agentes de IA. Essa assimetria de transparência sugere uma forma mais fraca de ‘lavagem de segurança’.”
A última atualização anual fornece informações verificadas em 1.350 campos para os trinta principais agentes de IA, disponíveis até o último dia de 2025. Os critérios para a inclusão no Índice incluíram disponibilidade pública e facilidade de uso, e desenvolvedores com uma avaliação de mercado superior a US$1 bilhão. Cerca de 80% dos bots do Índice foram lançados ou tiveram grandes atualizações nos últimos dois anos.
A atualização do Índice mostra que – fora dos bots de IA chineses – quase todos os agentes dependem de alguns modelos base (GPT, Claude, Gemini), uma concentração significativa de poder de plataforma por trás da revolução da IA, bem como potenciais gargalos sistêmicos.
Staufer destaca que não existem padrões estabelecidos para o comportamento de agentes de IA na web. A maioria dos agentes não divulga sua natureza de IA aos usuários finais ou a terceiros por padrão. Apenas três agentes suportam a marcação d’água de mídia gerada para identificá-la como proveniente de IA.
Pelo menos seis agentes de IA no Índice usam explicitamente tipos de código e endereços IP projetados para imitar o comportamento de navegação humana e contornar proteções anti-bots.
“Os operadores de sites não podem mais distinguir entre um visitante humano, um agente legítimo e um bot rastreando o conteúdo”, disse Staufer. “Isso tem implicações significativas para tudo, desde compras online e preenchimento de formulários até serviços de reserva e scraping de conteúdo.”
A atualização inclui um estudo de caso sobre o Perplexity Comet: um dos agentes de IA baseados em navegador mais autônomos no Índice, bem como um dos mais arriscados e menos transparentes. O Comet é comercializado por sua capacidade de “trabalhar como um assistente humano”. A Amazon já ameaçou ações legais contra o Comet por não se identificar como um agente de IA ao interagir com seus serviços.
“Sem divulgações de segurança adequadas, as vulnerabilidades só podem vir à tona quando são exploradas”, disse Staufer.
“Pode-se dizer que os agentes de navegador agem diretamente no mundo real, fazendo compras, preenchendo formulários ou acessando contas. Isso significa que as consequências de uma falha de segurança podem ser imediatas e de longo alcance.”
Staufer observa que no ano passado, pesquisadores de segurança descobriram que conteúdos maliciosos em uma página da web poderiam sequestrar um agente do navegador para executar comandos, enquanto outros ataques conseguiam extrair dados privados dos usuários de serviços conectados.
Staufer acrescentou: “O último Índice de Agentes de IA revela a ampliação da lacuna entre o ritmo de implementação e o ritmo de avaliação de segurança. A maioria dos desenvolvedores compartilha pouca informação sobre segurança, avaliações e impactos sociais.”
“Os agentes de IA estão se tornando mais autônomos e mais capazes de agir no mundo real, mas a transparência e os frameworks de governança necessários para gerenciar essa mudança estão perigosamente atrasados.”