Diminuição da memória da IA aumenta a precisão

  • Categoria do post:Notícias

Pesquisadores desenvolveram uma nova forma de comprimir a memória utilizada pelos modelos de IA para aumentar sua precisão em tarefas complexas ou ajudar a economizar quantidades significativas de energia. A equipe descobriu que grandes modelos de linguagem (LLMs) usando memória oito vezes menor que um LLM não comprimido tiveram melhor desempenho em testes de matemática, ciências e programação, enquanto gastavam a mesma quantidade de tempo raciocinando. Essa técnica pode ser uma alternativa para ajudar os LLMs a responder a mais consultas dos usuários simultaneamente, reduzindo a quantidade de energia necessária por tarefa. Além da economia de energia, os especialistas afirmam que as melhorias podem beneficiar sistemas de IA usados para resolver tarefas complicadas ou em dispositivos que possuem memória lenta ou limitada, como dispositivos domésticos inteligentes e tecnologia vestível.