Pesquisa na Web Promove Compreensão Mais Forte do que ChatGPT em Tarefas de Conhecimento, Concluem Pesquisadores

  • Categoria do post:Notícias

À medida que a inteligência artificial se torna cada vez mais integrada na forma como as pessoas acessam informações, uma nova pesquisa da Escola Wharton da Universidade da Pensilvânia sugere que os grandes modelos de linguagem (LLMs) como o ChatGPT podem estar mudando a forma como as pessoas aprendem, e não necessariamente para melhor. Através de uma série de experimentos envolvendo mais de 4.500 participantes, os pesquisadores descobriram que os usuários que dependiam de LLMs para obter informações desenvolviam uma compreensão mais fraca e produziam conteúdo menos reflexivo e original do que aqueles que usavam ferramentas convencionais de busca na web, como o Google. A descoberta central do estudo é direta. Embora os LLMs forneçam respostas mais rapidamente e convenientemente, essa facilidade parece reduzir o esforço cognitivo que os usuários investem no processamento do material. Em contraste, a busca na web requer a navegação por várias fontes, a avaliação da credibilidade e a integração de diferentes pontos de vista, ações que, de acordo com os pesquisadores, promovem uma compreensão mais profunda. Quando solicitados a pesquisar tópicos cotidianos e depois oferecer conselhos com base em suas descobertas, os participantes que usaram LLMs consistentemente escreveram respostas mais curtas e menos ricas em fatos. Seus conselhos também mostraram mais sobreposição com os outros em seu grupo, sugerindo um engajamento individual menor com o conteúdo. A equipe de pesquisa, liderada pela professora da Wharton, Shiri Melumad, e pelo pesquisador pós-doutoral Jin Ho Yun, conduziu quatro experimentos para testar essa hipótese. No primeiro, os participantes usaram o ChatGPT ou o Google para aprender como plantar uma horta. Aqueles que usaram o Google passaram mais tempo revisando fontes, se envolveram mais profundamente com o conteúdo e escreveram conselhos mais longos e detalhados. A análise da linguagem natural mostrou que os usuários do Google também fizeram referência a mais fatos específicos e usaram frases mais únicas em suas respostas escritas. Para isolar se a diferença decorria da qualidade da informação ou apenas de como ela era entregue, um segundo experimento manteve o conteúdo constante. Os participantes viram as mesmas dicas de jardinagem, mas em formatos diferentes, seja como um resumo unificado imitando uma resposta de LLM, ou dividido em páginas da web simuladas. Novamente, aqueles no formato de busca na web demonstraram um engajamento mais profundo e produziram conselhos mais ricos e personalizados. Em um terceiro experimento baseado em laboratório, os pesquisadores recorreram à Visão Geral de AI do Google, um recurso alimentado por LLM integrado diretamente nos resultados da pesquisa. Os participantes que viram apenas a visão geral gerada pela AI passaram menos tempo se envolvendo com o material e produziram conteúdo mais genérico, em comparação com aqueles que navegaram pelos resultados tradicionais de links azuis. Isso sugere que o formato de apresentação em si, conciso, sintetizado e economizador de esforço, pode ser suficiente para reduzir a aprendizagem ativa, mesmo quando a plataforma é familiar. O quarto e último experimento testou como essa diferença nos resultados de aprendizagem afeta o impacto do mundo real. Leitores independentes viram dois conselhos sobre como comprar um colchão, sem que lhes dissessem como o conselho foi gerado. Consistentemente, o conselho escrito por aqueles que usaram o Google foi classificado como mais útil, mais informativo e mais confiável. Os leitores disseram que eram mais propensos a adotá-lo ou recomendá-lo. Os autores do estudo argumentam que esses padrões refletem uma mudança de aprendizagem ativa para passiva. Com a busca na web tradicional, os usuários precisam fazer sentido de informações fragmentadas, comparar perspectivas e decidir em quais fontes confiar. Esse processo de “sentido” incentiva a retenção e a formação de conhecimento mais profundo. Em contraste, os LLMs oferecem respostas totalmente formadas de imediato. Embora conveniente, isso pode desencorajar os usuários de questionar ou interpretar informações por conta própria. A pesquisa associa isso a um princípio psicológico mais amplo conhecido como “dificuldade desejável”, onde a aprendizagem é mais eficaz quando requer esforço mental. Alguns dos efeitos também podem derivar de como as pessoas percebem os LLMs. Comentários separados de Daniel Oppenheimer, da Carnegie Mellon, sugerem que os usuários podem se render com muita facilidade às respostas geradas pela IA, assumindo que o modelo é mais conhecedor do que eles são. Isso pode desencorajar o pensamento crítico, fazendo com que os usuários tenham menos motivação para se envolver ainda mais ou personalizar as informações. Ainda assim, os pesquisadores não chegam a dizer que os LLMs devem ser evitados totalmente. Tanto Melumad quanto Oppenheimer reconhecem que as ferramentas de IA podem apoiar a aprendizagem, especialmente quando usadas com cuidado, como para criticar a própria escrita ou testar pressupostos. No entanto, eles alertam que, sem orientação ou intenção, a maioria das pessoas parece seguir o caminho mais fácil, o que muitas vezes significa aprender menos. As implicações para a educação e a aprendizagem cotidiana são importantes. O estudo levanta questões importantes sobre o impacto a longo prazo da IA na aquisição de conhecimento. Com os usuários mais jovens recorrendo cada vez mais aos LLMs como sua primeira parada para obter informações, os autores expressam preocupação de que habilidades de aprendizagem-chave, como a avaliação de evidências, a síntese de ideias e a formação de insights originais, possam ser enfraquecidas ao longo do tempo. Eles também observam que esses efeitos podem não se aplicar igualmente a todas as disciplinas. Para áreas de conhecimento mais técnicas e especializadas, os LLMs podem ajudar os iniciantes simplificando material complexo. Mas, para tópicos gerais, o hábito de pular o trabalho de descoberta pode ter consequências mais amplas. Os pesquisadores sugerem que combinar LLMs com a busca tradicional, em vez de substituí-la integralmente, pode ser um caminho melhor. Começar com visões gerais geradas por IA e depois aprofundar nos materiais de origem pode equilibrar a conveniência com o engajamento mental necessário para uma aprendizagem significativa.