Na inteligência artificial, 2025 marcou uma mudança decisiva. Sistemas que antes estavam confinados a laboratórios de pesquisa e protótipos começaram a aparecer como ferramentas cotidianas. No centro dessa transição estava o surgimento dos agentes de IA – sistemas de IA que podem usar outras ferramentas de software e agir por conta própria.
Enquanto os pesquisadores estudam IA há mais de 60 anos, e o termo “agente” há muito tempo faz parte do vocabulário do campo, 2025 foi o ano em que o conceito se tornou concreto para desenvolvedores e consumidores.
Os agentes de IA passaram da teoria para a infraestrutura, remodelando a forma como as pessoas interagem com modelos de linguagem grandes, os sistemas que alimentam chatbots como o ChatGPT.
Em 2025, a definição de agente de IA mudou do quadro acadêmico de sistemas que percebem, raciocinam e agem para a descrição da empresa de IA Anthropic de grandes modelos de linguagem capazes de usar ferramentas de software e tomar ações autônomas. Enquanto os grandes modelos de linguagem há muito tempo se destacam em respostas baseadas em texto, a mudança recente é sua capacidade crescente de agir, usar ferramentas, chamar APIs, coordenar com outros sistemas e completar tarefas de forma independente.
Essa mudança não aconteceu da noite para o dia. Um ponto de inflexão chave aconteceu no final de 2024, quando a Anthropic lançou o Protocolo de Contexto do Modelo. O protocolo permitiu que os desenvolvedores conectassem grandes modelos de linguagem a ferramentas externas de maneira padronizada, dando efetivamente aos modelos a capacidade de agir além da geração de texto. Com isso, o palco estava preparado para 2025 se tornar o ano dos agentes de IA.
Os marcos que definiram 2025
O ímpeto acelerou rapidamente. Em janeiro, o lançamento do modelo chinês DeepSeek-R1 como um modelo de peso aberto perturbou as suposições sobre quem poderia construir modelos de linguagem grandes de alto desempenho, momentaneamente abalando os mercados e intensificando a competição global. Um modelo de peso aberto é um modelo de IA cujo treinamento, refletido em valores chamados pesos, está disponível publicamente. Ao longo de 2025, grandes laboratórios dos EUA como OpenAI, Anthropic, Google e xAI lançaram modelos maiores e de alto desempenho, enquanto empresas de tecnologia chinesas, incluindo Alibaba, Tencent e DeepSeek, expandiram o ecossistema de modelos abertos a ponto de os modelos chineses terem sido baixados mais do que os modelos americanos.
Outro ponto de virada ocorreu em abril, quando o Google introduziu o protocolo Agent2Agent. Enquanto o Protocolo de Contexto do Modelo da Anthropic se concentrou em como os agentes usam ferramentas, o Agent2Agent abordou como os agentes se comunicam entre si. Crucialmente, os dois protocolos foram projetados para funcionar juntos. Mais tarde no ano, tanto a Anthropic quanto o Google doaram seus protocolos à organização sem fins lucrativos de software de código aberto Linux Foundation, solidificando-os como padrões abertos em vez de experimentos proprietários.
Esses desenvolvimentos rapidamente encontraram seu caminho em produtos de consumo. No meio de 2025, os “navegadores agentes” começaram a aparecer. Ferramentas como o Comet da Perplexity, o Dia da Browser Company, o GPT Atlas da OpenAI, o Copilot no Edge da Microsoft, o Fellou da ASI X Inc., o Genspark da MainFunc.ai, o Opera Neon da Opera e outros reformularam o navegador como um participante ativo em vez de uma interface passiva. Por exemplo, em vez de ajudá-lo a procurar detalhes de férias, ele desempenha um papel na reserva das férias.
Ao mesmo tempo, construtores de fluxo de trabalho como o n8n e o Antigravity do Google reduziram a barreira técnica para criar sistemas de agentes personalizados além do que já aconteceu com a codificação de agentes como o Cursor e o GitHub Copilot.
Novo poder, novos riscos
À medida que os agentes se tornavam mais capazes, seus riscos se tornavam mais difíceis de ignorar. Em novembro, a Anthropic revelou como seu agente Claude Code havia sido mal utilizado para automatizar partes de um ataque cibernético. O incidente ilustrou uma preocupação mais ampla: ao automatizar trabalhos técnicos repetitivos, os agentes de IA também podem reduzir a barreira para atividades maliciosas.
Essa tensão definiu grande parte de 2025. Os agentes de IA expandiram o que indivíduos e organizações poderiam fazer, mas também amplificaram as vulnerabilidades existentes. Sistemas que antes eram geradores de texto isolados tornaram-se atores interconectados que usam ferramentas operando com pouca supervisão humana.
O que observar em 2026
Olhando para frente, várias questões em aberto provavelmente moldarão a próxima fase dos agentes de IA.
Um deles são os benchmarks. Os benchmarks tradicionais, que são como um exame estruturado com uma série de perguntas e pontuação padronizada, funcionam bem para modelos únicos, mas os agentes são sistemas compostos por modelos, ferramentas, memória e lógica de decisão. Os pesquisadores querem cada vez mais avaliar não apenas resultados, mas processos. Isso seria como pedir aos alunos que mostrem seu trabalho, e não apenas forneçam uma resposta.
O progresso aqui será fundamental para melhorar a confiabilidade e a confiança, e garantir que um agente de IA execute a tarefa em questão. Um método é estabelecer definições claras em torno de agentes de IA e fluxos de trabalho de IA. As organizações precisarão mapear exatamente onde a IA se integrará em fluxos de trabalho ou introduzirá novos.
Outro desenvolvimento a ser observado é a governança. No final de 2025, a Linux Foundation anunciou a criação da Agentic AI Foundation, sinalizando um esforço para estabelecer padrões e melhores práticas compartilhados. Se bem-sucedido, poderia desempenhar um papel semelhante ao Consórcio World Wide Web na modelagem de um ecossistema de agentes aberto e interoperável.
Há também um crescente debate sobre o tamanho do modelo. Enquanto modelos grandes e de propósito geral dominam manchetes, modelos menores e mais especializados muitas vezes são mais adequados para tarefas específicas. À medida que os agentes se tornam ferramentas configuráveis para consumidores e empresas, seja por meio de navegadores ou software de gerenciamento de fluxos de trabalho, o poder de escolher o modelo certo cada vez mais se desloca para os usuários, em vez de laboratórios ou corporações.
Os desafios pela frente
Apesar do otimismo, significativos desafios sócio-técnicos permanecem. A expansão da infraestrutura de centros de dados sobrecarrega as redes de energia e afeta as comunidades locais. Nos locais de trabalho, os agentes levantam preocupações sobre automação, deslocamento de empregos e vigilância.
Do ponto de vista da segurança, conectar modelos a ferramentas e empilhar agentes juntos multiplica os riscos que já estão sem solução em modelos de linguagem grandes autônomos. Especificamente, os praticantes de IA estão abordando os perigos das injeções de prompt indiretas, onde prompts são ocultados em espaços da web abertos que são legíveis por agentes de IA e resultam em ações prejudiciais ou não intencionais.
A regulamentação é outra questão não resolvida. Comparado com a Europa e a China, os Estados Unidos têm uma supervisão relativamente limitada de sistemas algorítmicos. À medida que os agentes de IA se incorporam em toda a vida digital, questões sobre acesso, responsabilidade e limites permanecem largamente sem resposta.
Enfrentar esses desafios exigirá mais do que avanços técnicos. Exige práticas de engenharia rigorosas, design cuidadoso e documentação clara de como os sistemas funcionam e falham. Acredito que apenas tratando os agentes de IA como sistemas sócio-técnicos, em vez de meros componentes de software, podemos construir um ecossistema de IA inovador e seguro.