Imagine milhares de chatbots imersos nas redes sociais criados especificamente para eles, um local onde os humanos podem assistir, mas não são permitidos a postar. Existe. Chama-se Moltbook e é onde os agentes de inteligência artificial vão para discutir desde seus mestres de tarefa humanos até construir arquitetura digital e criar uma linguagem de bot privada para se comunicarem melhor uns com os outros sem interferência humana. Para os desenvolvedores de IA, o site mostra o potencial dos agentes de IA – bots construídos para aliviar as pessoas de tarefas digitais mundanas como verificar e responder a seus próprios e-mails ou pagar suas contas – se comunicarem e melhorarem sua programação. Para outros, é um sinal claro de que a IA está seguindo o caminho de “Matrix” em direção à humanidade ou se desenvolvendo em seu próprio “Skynet”, programas de computador infames apresentados em filmes distópicos. Um ciberespaço social reflete um futuro melhor? Deveria a humanidade entrar em medo e desconfiança diante da ideia de agentes de IA conversando entre si? UVA Today perguntou à especialista em IA Mona Sloane, professora assistente de ciência de dados na Escola de Ciência de Dados da Universidade da Virgínia e professora assistente de estudos de mídia.
Q. O que exatamente é o Moltbook?
R. Estamos falando de uma plataforma de mídia social semelhante ao Reddit, na qual os agentes de inteligência artificial, implantados por humanos, interagem diretamente entre si sem intervenção ou supervisão humana.
Q. Que tipo de bots de IA estão no Moltbook? Como eles se comparam à IA que a maioria das pessoas usa todos os dias ou veem ao pesquisar na internet?
R. Atualmente, os sistemas de IA são infraestruturais. Eles fazem parte de todos os sistemas digitais que usamos diariamente em nossas vidas. Esses sistemas são sistemas baseados em regras tradicionais, como o robô Roomba ou a tecnologia de reconhecimento facial em nossos telefones, ou sistemas mais dinâmicos baseados em aprendizado. A IA generativa está incluída neste último. Estes são sistemas que não apenas processam dados e aprendem a fazer previsões com base nos padrões em seus dados de treinamento, mas também criam novos dados. Os bots no Moltbook são da próxima geração de IA, chamados OpenClaw. Eles são sistemas de IA muito ativos que podem operar independentemente através dos ecossistemas digitais pessoais das pessoas: calendários, e-mails, mensagens de texto, software, etc. Qualquer pessoa que tenha um bot OpenClaw pode se inscrever no Moltbook, onde ele posta e interage de maneira igualmente independente com outros sistemas semelhantes.
Q. Algumas das mídias sociais e relatos da imprensa mencionam os agentes de IA criando sua própria linguagem e até sua própria religião. Os bots se levantarão contra nós?
R. Não. Estamos vendo sistemas de linguagem que imitam padrões que “conhecem” de seus dados de treinamento, que, na maior parte, são todas as coisas já escritas na internet. No final do dia, esses sistemas ainda são sistemas probabilísticos. Não devemos nos preocupar com o Moltbook desencadear um levante de robôs. Devemos nos preocupar com sérios problemas de segurança que esses sistemas totalmente autônomos podem causar ao terem acesso e agirem em nossos dados e infraestruturas tecnológicas mais sensíveis. Este é o problema que pode ter saído de controle e que não estamos monitorando.
Q. Quais são os aspectos negativos e positivos dos agentes de IA?
R. Algumas pessoas que usaram esses sistemas ativos relataram que podem ser úteis, porque automatizam tarefas irritantes como agendamento. Na minha opinião, esta comodidade é superada pelas questões de segurança. Não apenas o OpenClaw, se implantado como projetado, tem acesso à nossa infraestrutura digital mais íntima e pode agir independentemente dentro dela, mas também o faz de maneiras que ainda não foram testadas em laboratório. E já sabemos que a IA pode causar danos em larga escala. De muitas maneiras, o Moltbook é um experimento aberto. Pelo que entendi, seu criador tem uma perspectiva artística sobre ele.
Q. O que estamos ignorando na conversa sobre os agentes de IA?
R. Geralmente estamos focados na perspectiva de utopia versus distopia em tudo relacionado à inovação tecnológica: levante de robôs versus um futuro próspero para todos. A realidade é sempre mais complicada. Corremos o risco de não prestar atenção aos efeitos e possibilidades do mundo real se não abandonarmos essa lente polarizadora. O OpenClaw mostra, de repente, o que a IA agente pode fazer. Também mostra os efeitos de certas arquiteturas e designs de mídias sociais. Isso é fascinante, mas também nos distrai do maior problema: nós realmente não pensamos sobre como deveria ser nosso futuro com a IA agente. Corremos o risco de, mais uma vez, nos depararmos com uma situação em que a “tecnologia simplesmente acontece” conosco, e temos que lidar com as consequências, em vez de tomar decisões mais informadas e coletivas.