Na Europa, Meta se vê envolvida em outra tempestade. Desta vez, o tema é sobre dados. A empresa quer usar milhões de postagens e comentários de usuários para treinar seus sistemas de IA. Mas na Áustria, o grupo de privacidade noyb (None of Your Business) está resistindo firmemente.
O homem por trás do noyb, Max Schrems, já conhecido por desafiar grandes empresas de tecnologia anteriormente, escreveu para a Meta. Ele diz a eles: se vocês não mudarem seu plano e permitirem que os usuários digam sim ou não claramente primeiro, nós os levaremos ao tribunal. E não será uma briga judicial qualquer. Eles também falam de ação coletiva, o que pode custar muito dinheiro para a Meta.
Anteriormente, no último mês de junho, esse mesmo grupo enviou 11 reclamações. E como resultado, a Meta parou seu treinamento de IA na UE por um tempo. Mas agora, a empresa novamente diz que quer começar a usar os dados. Isso fez com que o mesmo grupo se mobilizasse novamente.
A Meta afirma que tem razão sob a lei de proteção de dados. Essa razão se chama “interesse legítimo”. Significa que eles acreditam não precisar de permissão para usar os dados. Mas o noyb diz que essa lógica não se sustenta. Eles acreditam que esse interesse não é suficiente para ignorar os direitos dos usuários.
O grupo destaca que a Meta tentou o mesmo truque antes quando se tratava de anúncios. Eles usaram essa história de “interesse” naquela época também, mas tiveram que parar em 2023. Após casos legais, a Meta concordou em pedir permissão aos usuários antes de usar seus dados para publicidade. Então, por que o treinamento de IA é diferente agora?
A Meta tenta explicar dessa forma – se apenas dez por cento das pessoas concordarem, não será o bastante. Eles dizem que sua IA não aprenderá bem a cultura local sem os dados abrangentes. Mas o noyb responde que outras empresas de IA como OpenAI e a Mistral da França se saem bem sem ter acesso ao conteúdo social privado das pessoas. Eles não utilizam dados de redes sociais e mesmo assim sua IA é muito inteligente.
Na Meta, eles veem as coisas de outra maneira. Um porta-voz afirma que algumas vozes ativistas estão apenas retardando novas ideias. A empresa argumenta que está sendo mais honesta do que muitas outras empresas de IA e diz que outras empresas também dependem de regras semelhantes de proteção de dados para treinar seus sistemas.
Mas o perigo legal parece real. O noyb diz que pode pedir aos tribunais para interromper a Meta imediatamente. Eles também estão considerando pedir pagamento para todos os usuários prejudicados. Com 400 milhões de usuários na UE, o custo poderia ultrapassar mais de €200 bilhões (ou $224 bilhões USD). Outros grupos em toda a Europa também podem seguir o mesmo caminho, o que só aumentará a pressão.
Schrems acha estranho que uma empresa tão grande corra tanto risco apenas para evitar uma coisa simples – pedir permissão.
Este conflito não é único para a Meta. Outros gigantes da tecnologia como Google, Apple e Twitter enfrentaram escrutínio semelhante, levando a atualizações em suas políticas de uso de dados para atender às regulamentações de privacidade em constante evolução.
Notavelmente, concorrentes no desenvolvimento de IA como OpenAI e a Mistral da França optam por excluir o conteúdo privado de redes sociais, confiando em dados disponíveis publicamente ou sintéticos em vez disso. Essa diferença molda tanto as atitudes regulatórias quanto a dinâmica competitiva.
À medida que as demandas de privacidade se tornam mais rigorosas, as plataformas devem melhorar a transparência e obter o consentimento claro do usuário para evitar batalhas legais custosas e proteger suas reputações.
Técnicas emergentes como o aprendizado federado e o processamento de dados anonimizados oferecem caminhos a seguir que respeitam a privacidade, ao mesmo tempo em que apoiam a inovação em IA.
Grupos de defesa como o noyb desempenham um papel fundamental na condução dessas mudanças na indústria, sinalizando uma mudança em direção a uma ética de dados mais forte e governança.
Este episódio reflete um ponto de virada mais amplo: as empresas de tecnologia devem alinhar as práticas de dados de IA com os padrões legais e os direitos dos usuários para sustentar a inovação e manter a liderança de mercado.