Pegada de carbono da IA cresce à medida que os chatbots aprendem a raciocinar

  • Categoria do post:Notícias

Com a inteligência artificial se tornando cada vez mais integrada na comunicação cotidiana, um novo estudo de pesquisadores em Munique revela que os custos energéticos de interagir com grandes modelos de linguagem podem ser muito maiores do que a maioria das pessoas percebe. Ao medir as emissões reais geradas quando sistemas de IA respondem a perguntas de usuários, as descobertas trazem mais clareza às consequências ambientais do raciocínio automatizado, especialmente quando as respostas se tornam extensas ou elaboradas. Os pesquisadores testaram catorze modelos diferentes de IA, cada um construído com bilhões de parâmetros, e os submeteram a 1.000 perguntas retiradas de campos acadêmicos que vão desde história mundial até álgebra abstrata. Essas perguntas foram projetadas para simular tanto a conclusão padrão de texto quanto tarefas de raciocínio mais complexas, e as respostas de cada modelo foram analisadas não apenas quanto à precisão, mas também quanto à quantidade de eletricidade consumida e a quantidade de emissões equivalentes de carbono que produziram durante o processo. Os resultados mostraram que, à medida que os modelos se tornavam mais capazes e precisos, seus requisitos energéticos aumentavam acentuadamente. Os maiores modelos na amostra, especialmente aqueles programados para explicar seu pensamento em detalhes, foram encontrados emitindo bem mais de mil gramas de CO? equivalente ao completar o teste completo. No extremo mais alto, um modelo produziu mais de dois quilogramas de emissões para responder ao conjunto de 1.000 perguntas, um número que destaca a crescente intensidade de carbono dos serviços de IA avançados. Embora esses modelos consistentemente tenham alcançado pontuações mais altas nos testes, seus custos ambientais variaram significativamente dependendo de como geraram respostas. Aqueles que foram configurados para “raciocinar” suas respostas antes de finalizá-las muitas vezes produziam não apenas saídas mais longas, mas também texto intermediário, algo parecido com pensar em voz alta. Esse processo, embora útil para aumentar o desempenho, levou a uma contagem de tokens muito maior, o que, por sua vez, se traduziu em mais uso de energia e emissões mais altas. Em vários casos, um único modelo habilitado para raciocínio exigiu até 6.700 tokens para responder a apenas uma pergunta em matemática, com algumas respostas se estendendo muito além do que pode ser considerado necessário ou eficiente. Em contraste, modelos menores consumiram muito menos energia e permaneceram relativamente concisos, mas tiveram dificuldade em fornecer respostas precisas ou úteis. O modelo mais leve do grupo, contendo apenas sete bilhões de parâmetros, consumiu menos de 30 gramas de CO? equivalente no total, mas obteve uma pontuação de precisão de apenas 32,9%. Embora esse resultado tenha mantido baixo o seu custo ambiental, ele não conseguiu igualar as capacidades dos sistemas maiores que estão sendo cada vez mais usados para alimentar ferramentas como assistentes de redação de IA, chatbots e aprimoramentos de busca. Uma das descobertas mais reveladoras foi o desequilíbrio entre eficiência energética e capacidade de raciocínio. O estudo destacou casos em que certos modelos, como um sistema de 72 bilhões de parâmetros desenvolvido pela Alibaba, conseguiram manter um perfil de emissão relativamente baixo enquanto alcançavam uma precisão respeitável. Isso sugere que pode ser possível projetar sistemas de IA que equilibrem o impacto ambiental e o desempenho, embora fazer isso possa exigir restrições cuidadosas sobre como esses modelos abordam problemas complexos. Através das diferentes áreas temáticas testadas, os modelos de IA apresentaram diferentes graus de dificuldade. Perguntas sobre história mundial e matemática do ensino médio foram tratadas com relativa facilidade, tanto em termos de emissões quanto de precisão. No entanto, áreas que envolvem raciocínio simbólico, como álgebra abstrata, consistentemente resultaram em taxas de erro mais altas e maiores demandas de energia. Isso indica que algumas disciplinas exigem naturalmente mais esforço computacional, especialmente quando os modelos são incentivados a trabalhar através dos problemas passo a passo. Talvez o mais importante, o estudo deixa claro que a verbosidade permanece como um desafio sério quando se trata de sustentabilidade. Mesmo em cenários que exigiam respostas curtas, como perguntas de múltipla escolha com apenas quatro opções, vários modelos retornaram respostas que se estendiam por milhares de palavras. Uma dessas saídas, registrada em resposta a uma única pergunta de álgebra, tinha mais de 37.000 palavras. Esse tipo de resposta coloca uma carga pesada na infraestrutura de processamento e ajuda a explicar as altas demandas de energia observadas. Apesar da magnitude do problema, os pesquisadores observaram que muito poucos artigos acadêmicos no campo de IA levam em consideração as emissões. Mesmo à medida que os modelos de linguagem se expandem tanto em capacidade quanto em escopo, a reportagem ambiental permanece rara. Menos de dois por cento das publicações recentes fazem referências explícitas às emissões de carbono ou às métricas de sustentabilidade, e ainda menos fornecem medidas do mundo real em vez de estimativas. Os pesquisadores argumentam que é urgente haver transparência em torno da pegada ambiental da IA. Enquanto a implementação de modelos cada vez maiores e mais articulados continua a acelerar, pouca atenção tem sido dada ao que esse crescimento significa em termos de uso de energia. Isso é especialmente crítico dado que o consumo global de IA gerativa agora rivaliza com o uso total de eletricidade de alguns países desenvolvidos. O estudo não teve como objetivo desencorajar o uso de IA por completo, mas sim destacar os trade-offs invisíveis que vêm com a busca por respostas mais inteligentes e mais humanas. Também levantou a possibilidade de que futuros sistemas sejam projetados de forma mais eficiente, não reduzindo o número de parâmetros, mas otimizando como raciocinam e quanto texto produzem no processo. Embora as descobertas não possam ser facilmente aplicadas a todos os modelos de IA, especialmente aqueles com vários bilhões de parâmetros ou aqueles treinados em hardware diferente, a pesquisa estabelece um precedente para avaliações ambientais mais rigorosas. Dada a rápida adoção de IA e a crescente dependência dessas ferramentas na vida cotidiana, decisões sobre seu design e uso podem em breve precisar levar em conta não apenas o quão bem eles se saem, mas também quanto custam ao planeta.