Um estudo revisado por pares publicado em Ética e Tecnologia da Informação por pesquisadores da Universidade de Exeter examina como chatbots de IA generativos podem produzir conteúdo falso ou enganoso que pode atender aos critérios estruturais específicos do que os autores descrevem como “fofoca de IA”, potencialmente contribuindo para danos sociais e de reputação. O artigo se concentra em sistemas amplamente utilizados pelos consumidores, como o ChatGPT da OpenAI e o Gemini do Google, que são alimentados por grandes modelos de linguagem. Segundo os autores, esses sistemas são treinados em extensas coleções de texto e geram respostas prevendo sequências prováveis de palavras. Como resultado, eles podem produzir declarações que parecem autoritativas sem se importar se essas declarações são verdadeiras. Para ilustrar essa afirmação, o artigo examina um caso documentado envolvendo Kevin Roose, repórter de tecnologia do The New York Times. Após Roose publicar relatos de uma interação perturbadora com um chatbot do Microsoft Bing no início de 2023, os usuários descobriram posteriormente que outros chatbots estavam gerando avaliações de caráter negativas sobre ele quando questionados sobre seu trabalho. Segundo o estudo, essas respostas geralmente combinavam informações biográficas básicas com reivindicações avaliativas não substanciadas, como sugestões de sensacionalismo ou práticas jornalísticas questionáveis. Os autores distinguem entre duas formas de fofoca de IA. Na fofoca de bot para usuário, um chatbot entrega declarações avaliativas sobre uma pessoa ausente a um usuário humano. Na fofoca de bot para bot, informações semelhantes são extraídas de conteúdo online e incorporadas aos dados de treinamento, depois propagadas entre sistemas sem envolvimento humano direto. O estudo situa esses efeitos dentro do que os autores chamam de “danos tecnossociais”, ou seja, danos que surgem em ambientes online e offline interconectados. Krueger e Osler enfatizam que esses riscos não surgem de má intenção por parte dos sistemas de IA. Em vez disso, eles argumentam que a responsabilidade recai sobre os designers humanos e as instituições que constroem, implementam e comercializam essas tecnologias. O artigo conclui que reconhecer determinadas formas de desinformação de IA como fofoca, em vez de como erros factuais isolados, ajuda a esclarecer como esses sistemas podem produzir efeitos sociais mais amplos e por que uma maior escrutínio ético é necessário à medida que as ferramentas de IA se tornam mais integradas à vida cotidiana.