Conversas deletadas do ChatGPT realmente não foram deletadas — E agora a OpenAI está pressionando por ‘Privilégio de IA’

  • Categoria do post:Notícias

Se você já usou o recurso de bate-papo temporário do ChatGPT pensando que sua conversa desapareceria após fechar a janela – bem, acontece que esse não era exatamente o caso. Pelo menos não mais.

A OpenAI está agora sob fogo após revelar que tem mantido registros de chats excluídos e temporários, não por escolha, mas por causa de uma ordem legal vinculada a um processo judicial. A atualização, que levou mais de três semanas para se tornar pública, deixou muitos usuários se sentindo surpreendidos.

Tudo começou com uma ordem judicial federal emitida em maio, que exige que a OpenAI preserve todos os dados de saída, mesmo se os usuários tentassem excluí-los. Isso inclui chats criados no modo “temporário” supostamente privado e único.

A ação está ligada a uma batalha legal em andamento com o The New York Times, que está processando a OpenAI e a Microsoft por supostas violações de direitos autorais. A argumentação deles? Que o ChatGPT pode reproduzir material protegido por direitos autorais quase palavra por palavra – e que até mesmo chats “excluídos” podem conter exemplos que comprovem o seu caso.

A OpenAI cumpriu de imediato, mas não informou os usuários até o início de junho. Somente então um post de blog apareceu, explicando que, a menos que você esteja usando um produto de nível empresarial ou um endpoint da API com retenção zero de dados (ZDR), suas conversas provavelmente estão sendo armazenadas – indefinidamente, por enquanto.

Os usuários se revoltam à medida que a OpenAI admite armazenar chats supostamente excluídos. Em plataformas como X (anteriormente Twitter), os usuários não encararam as notícias de forma leve. Alguns se sentiram traídos. Outros estavam confusos sobre quanto tempo seus dados estavam sendo mantidos. Alguns observaram a contradição entre o que a interface sugeria e o que realmente estava acontecendo nos bastidores.

A verdadeira questão? A OpenAI não tornou essa mudança transparente quando aconteceu pela primeira vez.

Em sua defesa, a empresa disse que está simplesmente seguindo as ordens do juiz – não colhendo dados extras voluntariamente. As conversas armazenadas estão sendo isoladas sob uma retenção legal, o que significa que apenas uma pequena equipe interna tem acesso. Eles enfatizam que nada disso está sendo repassado para o The New York Times ou qualquer outra parte no momento.

Ainda assim, para as pessoas que pensavam que “excluir” realmente significava excluir, tudo isso pareceu uma troca enganosa.

O CEO da OpenAI, Sam Altman, se manifestou logo após o início da reação. Em uma série de postagens noturnas, ele descreveu a demanda do tribunal como excessiva e disse que a OpenAI a contestaria.

Mas, mais notavelmente, ele levantou uma nova ideia – algo que ele chamou de “privilégio de IA”.

O conceito? Que as conversas com sistemas de IA merecem o mesmo tipo de confidencialidade que se obtém ao falar com um médico ou um advogado. Isso não é uma reivindicação pequena. Se fosse reconhecido legalmente, poderia remodelar a forma como as interações com IA são tratadas em tudo, desde processos judiciais até auditorias internas.

Atualmente, é apenas um conceito. Mas o fato de a OpenAI estar trazendo isso à tona sugere que a empresa está olhando além desse caso – talvez em direção a um quadro mais amplo que protege as interações de IA da escrutina indesejada.

Enquanto a maioria das atenções está voltada para o ângulo do usuário, as empresas que integram o ChatGPT em ferramentas internas ou serviços voltados para o cliente enfrentam agora um cenário muito mais complicado.

Mesmo que uma empresa esteja usando um endpoint ZDR e pense que está segura, os dados ainda podem ficar presos em logs, sistemas de análise ou backups de terceiros. Muitos CIOs e líderes de conformidade provavelmente estão reavaliando o quão “temporários” são realmente seus fluxos de trabalho de IA e se seus sistemas podem armazenar interações que prometeram não ser mantidas por perto.

Para os usuários corporativos, as isenções legais atuais (como para contas empresariais do ChatGPT) podem oferecer um amortecedor. Mas o quadro geral aqui é que as ordens legais de preservação estão em jogo – e isso significa que toda suposição sobre dados de IA efêmeros pode precisar ser questionada.

A governança de dados acabou de se tornar muito mais complicada.

A OpenAI formalmente se opôs à ordem do juiz, argumentando que a demanda para reter dados de conversas de usuários carece de uma base factual sólida e coloca um fardo desnecessário sobre a empresa.

Em uma audiência recente, o juiz deu a entender que a ordem de preservação pode não ser permanente. Ela pediu que ambas as partes criassem um método de amostragem para determinar se os chats excluídos diferem significativamente dos já armazenados. Era esperado que a OpenAI enviasse esse plano até 6 de junho.

Enquanto isso, a empresa permanece em uma situação difícil. Ela precisa cumprir uma diretiva legal com a qual discorda, enquanto tenta tranquilizar os usuários e clientes de que sua privacidade ainda importa.

Esse não é apenas mais um detalhe legal. Está se tornando um momento crucial na forma como o mundo da tecnologia define a privacidade da IA. Se o “privilégio de IA” ganhar força, poderá influenciar tudo, desde o design de aplicativos até a regulamentação de dados. Se não, ainda pode desencadear uma reflexão mais ampla sobre como as pessoas pensam sobre o que contam às máquinas.

Atualmente, a OpenAI está no meio do fogo cruzado – lidando com ordens judiciais, expectativas empresariais e confiança pública – enquanto luta uma batalha legal que pode redefinir as regras para todos que constroem ou usam IA.

E para quem assumiu que seus chats desapareceram no momento em que foram excluídos? Essa suposição acabou de se tornar muito mais complicada.