O custo oculto das ferramentas de IA gratuitas: seu comportamento, hábitos e identidade

  • Categoria do post:Notícias

A inteligência artificial se tornou parte da vida diária, mesmo que as pessoas gostem ou não. Muitos dispositivos, como barbeadores elétricos e escovas de dente, tornaram-se “movidos por IA”, utilizando algoritmos de aprendizado de máquina para rastrear como uma pessoa usa o dispositivo, como o dispositivo está funcionando em tempo real e fornecer feedback. Desde fazer perguntas a um assistente de IA como ChatGPT ou Microsoft Copilot até monitorar uma rotina diária de fitness com um smartwatch, muitas pessoas usam um sistema ou ferramenta de IA todos os dias.

Embora as ferramentas e tecnologias de IA possam tornar a vida mais fácil, também levantam questões importantes sobre a privacidade dos dados. Esses sistemas frequentemente coletam grandes quantidades de dados, às vezes sem que as pessoas percebam que seus dados estão sendo coletados. As informações podem ser usadas para identificar hábitos e preferências pessoais e até prever comportamentos futuros, fazendo inferências a partir dos dados agregados.

Como professor assistente de cibersegurança na Universidade da Virgínia Ocidental, estudo como as tecnologias emergentes e diversos tipos de sistemas de IA gerenciam dados pessoais e como podemos construir sistemas mais seguros e preservadores da privacidade para o futuro.

O software de IA generativa utiliza grandes quantidades de dados de treinamento para criar novos conteúdos, como texto ou imagens. A IA preditiva usa dados para prever resultados com base em comportamentos passados, como a probabilidade de você atingir sua meta diária de passos, ou quais filmes você pode querer assistir. Ambos os tipos podem ser usados para coletar informações sobre você.

Assistentes de IA generativa, como ChatGPT e Google Gemini, coletam todas as informações que os usuários digitam em uma caixa de chat. Cada pergunta, resposta e comando que os usuários inserem é gravado, armazenado e analisado para melhorar o modelo de IA.

A política de privacidade da OpenAI informa aos usuários que “podemos usar o conteúdo que você nos fornece para melhorar nossos Serviços, por exemplo, para treinar os modelos que alimentam o ChatGPT.” Mesmo que a OpenAI permita que você exclua o uso do conteúdo para treinamento do modelo, ela ainda coleta e retém seus dados pessoais. Embora algumas empresas prometam que anonimizam esses dados, armazenando-os sem nomear a pessoa que os forneceu, sempre há o risco de reidentificação dos dados.

O ChatGPT armazena e analisa tudo o que você digita em uma tela de prompt. Captura de tela por Christopher Ramezan, CC BY-ND.

Além dos assistentes de IA generativos, plataformas de mídia social como Facebook, Instagram e TikTok coletam continuamente dados de seus usuários para treinar modelos de IA preditiva. Cada postagem, foto, vídeo, curtida, compartilhamento e comentário, incluindo o tempo gasto olhando cada um deles, é coletado como pontos de dados que são usados para construir perfis de dados digitais para cada pessoa que usa o serviço.

Os perfis podem ser usados para refinar os sistemas de recomendação de IA da plataforma de mídia social. Eles também podem ser vendidos a corretores de dados, que vendem os dados de uma pessoa para outras empresas, por exemplo, para ajudar a desenvolver anúncios direcionados que estejam alinhados com os interesses dessa pessoa.

Muitas empresas de mídia social também rastreiam usuários em sites e aplicativos por meio de cookies e pixels de rastreamento incorporados em seus computadores. Os cookies são arquivos pequenos que armazenam informações sobre quem você é e o que clicou enquanto navegava em um site. Uma das utilizações mais comuns dos cookies é em carrinhos de compras digitais: Quando você coloca um item em seu carrinho, sai do site e retorna mais tarde, o item ainda estará em seu carrinho porque o cookie armazenou essa informação. Pixels de rastreamento são imagens invisíveis ou trechos de código incorporados em sites que informam as empresas sobre sua atividade quando você visita suas páginas. Isso ajuda a rastrear seu comportamento na internet.

É por isso que os usuários frequentemente veem ou ouvem anúncios relacionados aos seus hábitos de navegação e compras em muitos dos sites não relacionados que navegam, e até mesmo quando estão usando dispositivos diferentes, como computadores, telefones e smart speakers. Um estudo descobriu que alguns sites podem armazenar mais de 300 cookies de rastreamento em seu computador ou celular.

Assim, surgem preocupações sérias de privacidade para as pessoas e governos sobre como as ferramentas de IA coletam, armazenam, usam e transmitem dados. A maior preocupação é a transparência. As pessoas não sabem quais dados estão sendo coletados, como estão sendo usados e quem tem acesso a esses dados.

As empresas tendem a usar políticas de privacidade complicadas, repletas de jargão técnico, para tornar difícil para as pessoas entenderem os termos de um serviço ao qual concordam. As pessoas também tendem a não ler documentos de termos de serviço. Um estudo descobriu que as pessoas, em média, levam 73 segundos lendo um documento de termos de serviço que tem um tempo médio de leitura de 29-32 minutos.

Os dados coletados pelas ferramentas de IA podem inicialmente estar com uma empresa na qual você confia, mas podem ser facilmente vendidos e dados a uma empresa na qual você não confia.

Ferramentas de IA, as empresas responsáveis por elas e as empresas que têm acesso aos dados que coletam também podem estar sujeitas a ataques cibernéticos e violações de dados que podem revelar informações pessoais sensíveis. Esses ataques podem ser realizados por cibercriminosos que visam o lucro, ou por chamados ameaças persistentes avançadas, que são geralmente atacantes patrocinados por nações/estados que ganham acesso a redes e sistemas e permanecem lá sem serem detectados, coletando informações e dados pessoais para eventualmente causar interrupção ou dano.

Embora leis e regulamentos como o Regulamento Geral de Proteção de Dados na União Europeia e o California Consumer Privacy Act visem proteger os dados do usuário, o desenvolvimento e uso de IA muitas vezes superaram o processo legislativo. As leis ainda estão se atrasando em relação à IA e à privacidade dos dados. Por enquanto, você deve assumir que qualquer dispositivo ou plataforma alimentado por IA está coletando dados de suas entradas, comportamentos e padrões.

Embora as ferramentas de IA coletem dados das pessoas, e a forma como essa acumulação de dados afeta a privacidade dos dados das pessoas seja preocupante, as ferramentas também podem ser úteis. Aplicativos com IA podem otimizar fluxos de trabalho, automatizar tarefas repetitivas e fornecer informações valiosas.

No entanto, é crucial abordar essas ferramentas com consciência e cautela.

Ao usar uma plataforma de IA generativa que lhe fornece respostas para perguntas que você digita em um prompt, não inclua nenhuma informação pessoal identificável, como nomes, datas de nascimento, números de previdência social ou endereços residenciais. No local de trabalho, não inclua segredos comerciais ou informações classificadas. De um modo geral, não coloque nada em um prompt que você não se sentiria confortável em revelar ao público ou ver em um outdoor. Lembre-se, uma vez que você entra no prompt, perde o controle sobre essa informação.

Lembre-se de que dispositivos ligados estão sempre ouvindo – mesmo que estejam dormindo. Se você usar dispositivos domésticos inteligentes ou embutidos, desligue-os quando precisar ter uma conversa privada. Um dispositivo que está dormindo parece inativo, mas ainda está ligado e ouvindo um comando de despertador ou sinal. Desconectar um dispositivo ou remover suas baterias é uma boa maneira de garantir que o dispositivo esteja realmente desligado.

Por fim, esteja ciente dos termos de serviço e políticas de coleta de dados dos dispositivos e plataformas que você está usando. Você pode se surpreender com o que já concordou.

Este post foi publicado pela primeira vez em TheConversation.

Leia a seguir: Apple’s AI Critique Faces Pushback Over Flawed Testing Methods.