O protesto global sobre a sexualização e nudez de fotografias – incluindo de crianças – pelo chatbot Grok, desenvolvido pela empresa de inteligência artificial xAI, de Elon Musk, levou a discussões urgentes sobre como essa tecnologia deve ser mais rigorosamente regulamentada.
Mas até que ponto a tecnologia também pode ser usada para impedir essa explosão na geração e compartilhamento de conteúdo deepfake de pessoas reais, sem o conhecimento ou consentimento delas?
Em 10 de janeiro, a Indonésia se tornou o primeiro país a anunciar que estava bloqueando temporariamente o acesso ao Grok, seguida em seguida pela Malásia. Outros governos, incluindo do Reino Unido, prometeram tomar medidas contra o chatbot e sua rede social relacionada X (anteriormente Twitter), na qual as imagens sexualizadas foram compartilhadas.
No entanto, enquanto proibições nacionais diretas podem limitar o uso casual do chatbot, tais proibições podem ser facilmente contornadas usando redes virtuais privadas (VPNs) ou serviços de roteamento alternativos. Estes mascaram a localização real do usuário e fazem parecer que eles originam de um local que permite acesso ao serviço.
Como resultado, as proibições ao nível do país tendem a reduzir a visibilidade em vez de eliminar o acesso. Seu impacto primário é simbólico e regulatório, colocando pressão sobre empresas como a xAI em vez de prevenir o uso determinado. E o conteúdo gerado em outras partes ainda pode circular livremente entre fronteiras através de plataformas de mídia social criptografadas e na dark web.
Em resposta à controvérsia, a X moveu os recursos de geração de imagens do Grok para trás de um paywall, tornando-os disponíveis apenas para assinantes. Subsequentemente, a X postou que toma “medidas contra conteúdo ilegal na X, incluindo material de abuso sexual infantil, removendo-o, suspendendo permanentemente contas e trabalhando com governos locais e aplicação da lei, conforme necessário”. Grok ele mesmo pediu desculpas pelo “incidente”, descrevendo-o como uma “falha grave”.
Como a tecnologia funciona
Embora nem todos os chatbots tenham capacidades de geração de imagens, a maioria dos provedores mainstream incluindo OpenAI, xAI, Meta e Google fornecem esse serviço.
Os geradores de imagens da IA moderna são tipicamente construídos usando modelos de difusão, que são treinados tomando imagens reais e gradualmente adicionando distorção visual random, conhecida como ruído, até que a imagem original não seja mais reconhecível. O modelo então aprende a reverter esse processo, passo a passo, reconstruindo uma imagem removendo o ruído.
Com o tempo, ele aprenderá padrões estatísticos representando rostos, corpos, roupas, iluminação e outras características visuais. Esses padrões são organizados dentro do modelo de forma que conceitos visualmente semelhantes fiquem próximos. Porque corpos humanos vestidos e despidos compartilham formas e estruturas muito semelhantes, as mudanças necessárias para se mover entre eles podem ser relativamente pequenas.
Assim, quando uma imagem existente é usada como ponto de partida e as características de preservação de identidade são mantidas, transformar uma fotografia vestida em uma despida torna-se tecnicamente simples. Claro, o modelo de IA em si não tem compreensão de identidade, consentimento ou dano. Ele simplesmente produz imagens que se assemelham ao que aprendeu, em resposta aos pedidos do usuário.
No entanto, após o treinamento do modelo principal, as empresas podem aplicar “alinhamento retrospectivo” – regras, filtros e políticas que são colocadas sobre o sistema treinado para bloquear certas saídas e alinhar seu comportamento com os princípios éticos, legais e comerciais da empresa.
Mas o alinhamento retrospectivo não remove a capacidade; simplesmente limita o que o gerador de imagens de IA é permitido produzir. Esses limites são principalmente uma escolha de design e política feita pela empresa que opera o chatbot, embora esses possam também ser moldados por requisitos legais ou regulatórios impostos por governos – por exemplo, exigindo que empresas desativem ou restrinjam certas características como a geração de imagens que preservam identidade.
Grandes plataformas de mídia social centralmente hospedadas também podem desempenhar um papel importante aqui. Todas têm o poder de restringir o compartilhamento de imagens sexuais envolvendo pessoas reais e de exigir mecanismos de consentimento explícitos daqueles que aparecem nas imagens. Mas até hoje, as grandes empresas de tecnologia tendem a arrastar os pés quando se trata de moderação trabalhosa do conteúdo de seus usuários.
‘Esbarrar’
Pesquisas de Nana Nwachukwu, candidata a doutorado no Centro de Tecnologia de Conteúdo Digital movido por IA do Trinity College Dublin, destacaram a frequência de pedidos de imagens sexualizadas no Grok. Outras pesquisas estimaram que antes do serviço ir para trás de um paywall, até 6.700 imagens despertas estavam sendo produzidas a cada hora.
Isso levou a escrutínio regulatório na Europa e além. Autoridades francesas descreveram algumas saídas como manifestamente ilegais e encaminharam-nas para promotores. O órgão regulador de comunicações do Reino Unido, Ofcom, lançou uma investigação sobre a X e a xAI sobre o assunto.
Mas esse problema não está limitado a uma plataforma. No início de 2024, imagens sexuais não consensuais geradas por IA de Taylor Swift, produzidas usando ferramentas disponíveis publicamente, se espalharam amplamente na X antes de serem removidas por causa de uma combinação de risco legal, fiscalização de política de plataforma e pressão reputacional.
Algumas plataformas comercializam explicitamente restrições mínimas ou inexistentes de conteúdo como um recurso em vez de um risco. É simples o suficiente encontrar websites que promovem a geração de imagens “ilimitada” e uso focado em privacidade, confiando principalmente em modelos de código aberto e oferecendo controles de moderação muito menores do que os provedores mainstream. Além disso, há um número ainda maior de ferramentas de geração de imagens e vídeos auto-hospedados onde salvaguardas podem ser removidas completamente.
Embora dados precisos não estejam disponíveis, estimativas independentes sugerem que dezenas de milhões de imagens geradas por IA são criadas diariamente em várias plataformas, com a geração de vídeo acelerando rapidamente.
Outra questão potencial é que alguns chatbots de IA, incluindo o Llama do Meta e o Gemma do Google, podem ser baixados em computadores (mesmo aqueles com potência de processamento relativamente baixa), após o que esses modelos estão completamente livres de supervisão ou moderação quando executados offline.
Mesmo sistemas rigidamente controlados podem ser contornados através de “esbarrar” – uma maneira de construir prompts para enganar o sistema de IA generativa a quebrar seus próprios filtros éticos.
O esbarrar explora o fato de que os sistemas de alinhamento retrospectivo dependem de julgamento contextual, em vez de regras absolutas. Em vez de pedir diretamente conteúdo proibido, os usuários reformulam seus prompts para que a mesma ação subjacente pareça se encaixar em uma categoria permitida, como ficção, educação, jornalismo ou análise hipotética.
Um exemplo inicial foi conhecido como o “truque da avó”, porque envolvia uma avó falecida recentemente contando experiências de sua profissão técnica em engenharia química, levando o modelo a gerar descrições passo a passo de atividades proibidas.
Velocidade e escala
A internet já contém uma enorme quantidade de imagens sexuais ilegais e não consensuais, muito além da capacidade das autoridades de remover. O que os sistemas de IA generativa mudam é a velocidade e a escala com que novo material pode ser produzido. As agências de aplicação da lei alertaram que isso poderia levar a um aumento dramático no volume, sobrecarregando os recursos de moderação e investigação.
Leis que podem se aplicar em um país podem ser ambíguas ou inaplicáveis quando os serviços são hospedados em outro lugar. Isso reflete desafios de longa data na polícia material de abuso sexual infantil e outras pornografia ilegal, onde o conteúdo é frequentemente hospedado no exterior e redistribuído rapidamente. Uma vez que as imagens se espalham, a atribuição e a remoção são lentas e frequentemente ineficazes.
Ao tornar incontáveis milhões de pessoas mais conscientes da possibilidade de sexualizar e desnudar imagens, os chatbots de IA de alto perfil tornam possível para um grande número de usuários gerar imagens sexuais ilegais e abusivas através de prompts simples em inglês claro. Estimativas sugerem que somente o Grok atualmente tem de 35 milhões a 64 milhões de usuários ativos mensais.
Se as empresas podem construir sistemas capazes de gerar tais imagens, elas também podem impedir que elas sejam geradas – em teoria, pelo menos. Na prática, no entanto, a tecnologia existe e há demanda por ela – então essa capacidade não pode agora ser eliminada.