Os Perigos de Não Ensinar os Estudantes a Usar a IA de Forma Responsável

  • Categoria do post:Notícias

Se os alunos não aprendem como usar a inteligência artificial e outras tecnologias adequadamente em ambientes escolares seguros, onde os erros são uma parte esperada do processo de aprendizagem, então eles podem cometer erros ao aprender como usar essas tecnologias como adultos em ambientes mais críticos como o local de trabalho.

A inteligência artificial generativa tem perturbado a sala de aula, fazendo com que os educadores sintam que a única escolha imediata e bem-intencionada que podem fazer é proibir essa tecnologia de ser usada em atividades e espaços acadêmicos. Conversamos com o candidato ao PhD na Escola de Ciência de Dados da Universidade da Virgínia, Bryan Christ, sobre por que é mais prejudicial do que eficaz retirar dos alunos a capacidade de usar grandes modelos de linguagem como o ChatGPT, e por que é importante para eles defenderem o direito de ter essas ferramentas na sala de aula.

P: Quais são as consequências de não ensinar os alunos a usar a inteligência artificial de forma responsável?

Acredito que a maior consequência educacional de não ensinar os alunos a usar IA de forma responsável é que eles podem usá-la para contornar, em vez de apoiar, o processo de aprendizagem. Por exemplo, os alunos podem usar a IA para resolver seus problemas de casa sem tentar resolvê-los por conta própria primeiro. Dessa forma, eles transferem o processo de aprendizagem para a IA, ao invés de usá-la para apoiar o processo de aprendizagem, como por exemplo, pedindo uma dica quando estão presos em um problema.

Isso pode então estabelecer um precedente perigoso para os alunos de que a IA pode completar completamente tarefas para eles sem sua intervenção ou revisão, o que pode se infiltrar em seus papéis futuros no mercado de trabalho. Esses alunos então engajariam na transferência cognitiva de tarefas para a IA em seus trabalhos, em vez de usá-la como uma ferramenta para apoiar sua produtividade. Isso poderia levá-los a submeter trabalhos gerados por IA sem antes revisá-los, levando a erros críticos nos resultados gerados por IA passarem despercebidos quando os modelos inevitavelmente cometem erros. Isso é chamado de “sujar a IA”.

P: Parece haver um consenso geral de que proibir tecnologias específicas ou implementar restrições de idade em plataformas sociais eliminará a trapaça, a procrastinação, problemas comportamentais e ajudará a lidar com preocupações com a saúde mental.

Essa parece ser uma solução fácil para varrer uma questão maior e negligenciada para debaixo do tapete. O que você acha que é essa questão e de que maneiras ela pode ser abordada no futuro imediato?

Eu acredito que essas abordagens varrem para debaixo do tapete a questão maior de ensinar os alunos como usar a tecnologia de forma apropriada. Se os alunos não aprendem como usar a IA e outras tecnologias adequadamente em ambientes escolares seguros, onde os erros são uma parte esperada do processo de aprendizagem, então eles podem cometer erros ao aprender como usar essas tecnologias como adultos em ambientes mais críticos como o local de trabalho. É irracional esperar que os alunos não usem essas tecnologias no futuro, portanto é crucial ensiná-los a fazer isso de forma apropriada.

P: Como a IA pode ajudar os alunos com deficiências de aprendizado?

Há muitas maneiras pelas quais a IA pode ajudar os alunos com deficiências de aprendizado. Uma maneira é que os professores podem usá-la como uma ferramenta para apoiar a diferenciação, ou adaptação da instrução às necessidades individuais dos alunos. Por exemplo, os professores poderiam usar a IA para rapidamente converter uma atribuição em um formato diferente para um aluno com uma deficiência de aprendizagem ou para gerar problemas de prática para alunos com deficiências de aprendizado que estão alinhados com seus níveis de prontidão atuais.

Os alunos com deficiências de aprendizado também podem usar a IA por conta própria para apoiar sua aprendizagem. Alguns exemplos incluem conversar por voz com a IA para aprender conceitos da aula, usar a IA para ler um documento em voz alta, usar a IA para desmembrar conceitos complexos em partes gerenciáveis, usar a IA para gerar problemas de prática, ou usar a IA para converter materiais de aprendizagem em uma modalidade diferente, como um podcast ou diagrama visual.

P: Como as escolas e educadores podem implementar a IA de forma segura e eficaz na sala de aula sem comprometer a capacidade dos alunos de serem criativos?

A melhor maneira para as escolas e educadores implementarem a IA de forma segura e eficaz na sala de aula é encontrar maneiras de usá-la como uma ferramenta para complementar, em vez de contornar, o processo de aprendizagem.

Um exemplo é ter os alunos usando ferramentas de IA projetadas para apoiar sua aprendizagem, fornecendo dicas direcionadas ou instruções ao resolver problemas, em vez de fornecer a resposta, como o Khanmigo ou o ChatGPT Study Mode. Tais ferramentas podem apoiar os professores fornecendo instrução personalizada e tutoria em uma escala inatingível por um único professor.

Outro exemplo seria usar a IA para personalizar automaticamente problemas de prática de acordo com os interesses e níveis de habilidade atuais dos alunos, o que é conhecido por apoiar os resultados de aprendizagem.

Um terceiro exemplo seria usar a IA como uma ferramenta para fomentar a criatividade em si, dando aos alunos a oportunidade de aprender mais sobre tópicos nos quais estão interessados, enquanto praticam habilidades de aprendizagem como compreensão de leitura. Por exemplo, os professores (ou alunos) poderiam usar a IA para gerar passagens de leitura e questões de compreensão associadas ou atividades de aprendizagem sobre coisas nas quais seus alunos têm interesse, como o espaço ou esportes. Desta forma, podemos capacitar professores e alunos a usarem a IA para apoiar a criatividade e a aprendizagem, ao invés de contorná-la.

P: Alguns alunos têm enfrentado problemas onde são autorizados a usar IA generativa em uma aula, mas proibidos de usá-la em outra. Seria benéfico que uma política de escola ou universidade fosse implementada? Ou você vê outra maneira de colaboração que poderia ser utilizada para combater a confusão que surge nesse cenário?

Acredito que o mais importante é que as escolas sejam muito claras com os alunos sobre suas expectativas em relação à IA, para minimizar as chances de os alunos usarem a IA de forma considerada inadequada ou de trapaça. Embora as políticas em toda a escola possam ser úteis, pode ser difícil elaborar uma única política que funcione para cada aula e situação de aprendizado. Acredito que uma abordagem melhor é definir o que significa uso responsável da IA de forma abrangente para toda a escola e, em seguida, permitir que os professores decidam como isso se traduz em suas salas de aula individuais.

Por exemplo, uma escola poderia decidir que o uso responsável da IA significa que os alunos não a usam para elaborar os primeiros rascunhos de seus trabalhos, permitindo aos professores a liberdade de decidir se a IA pode ser usada para ajudar os alunos a aprimorar suas ideias com base em objetivos de aprendizagem específicos para tarefas individuais. Políticas individuais por classe podem gerar confusão para os alunos às vezes, mas os professores podem minimizar essa confusão sendo muito claros sobre os usos apropriados da IA para cada atividade de aprendizagem.

P: Como você acha que podemos eliminar o estigma em torno da IA na educação, ao mesmo tempo em que abordamos preocupações éticas e ambientais?

Eu acredito que a melhor forma de eliminar o estigma em torno da IA na educação é fornecer exemplos reais de casos de uso eficazes. Professores e escolas estão corretos em se preocupar que a IA possa ser usada para contornar o processo de aprendizagem e plagiar conteúdo, mas também devem ser mostrados como ela pode apoiar os resultados de aprendizagem. Uma maneira de fazer isso é conduzindo pesquisas sobre usos eficazes da IA na educação, que é uma área de pesquisa em crescimento. Por exemplo, em um estudo recente que lançamos, descobrimos que enquanto os alunos apresentavam desempenhos semelhantes em problemas de matemática gerados por IA e escritos por humanos, eles consistentemente preferiam problemas gerados por IA que foram personalizados com base em seus interesses, demonstrando diretamente uma maneira prática de os professores poderem usar a IA para apoiar a aprendizagem.

Também é importante deixar claro para os alunos que as ferramentas de IA, como toda tecnologia, têm implicações éticas e ambientais reais. Por exemplo, os professores poderiam informar os alunos sobre como a IA poderia ser usada para plagiar informações ao não citar fontes ou dados protegidos por direitos autorais nos quais os modelos foram treinados. Os professores também poderiam ensinar aos alunos sobre o impacto ambiental da tecnologia em termos de consumo de eletricidade e água.

P: Em uma escala maior, os alunos não são autorizados a se envolver na tomada de decisões em torno da IA generativa que impacta diretamente sua experiência educacional. Como eles podem se envolver em suas escolas ou universidades e garantir que suas vozes sejam ouvidas?

Embora os professores e as escolas possam tomar decisões sobre a IA generativa sem consultar os alunos, isso não significa necessariamente que eles não estejam abertos ao feedback dos alunos ou aprendendo sobre como essas políticas afetam os alunos. Muitas vezes, os educadores tomam decisões políticas sem os alunos porque é mais conveniente, ou eles presumem que os alunos podem não estar interessados em ajudar a moldar essas políticas. Os educadores têm boas intenções e geralmente estão abertos ao feedback dos alunos. Eu recomendaria que os alunos interessados em ajudar a moldar políticas de IA generativa conversem entre si e com seus professores. Muitas vezes, tudo o que é necessário é que vários alunos interessados para que as escolas abram linhas de comunicação entre os responsáveis pela tomada de decisões e os alunos.