Se você já usou o recurso de bate-papo temporário do ChatGPT pensando que sua conversa desapareceria depois de fechar a janela, bem, parece que esse não era exatamente o caso. Pelo menos não mais.
A OpenAI está sendo criticada depois de revelar que está mantendo registros de conversas excluídas e temporárias, não por escolha, mas por causa de uma ordem legal vinculada a um processo. A atualização, que levou mais de três semanas para se tornar pública, deixou muitos usuários se sentindo pegos de surpresa.
Tudo começou com uma ordem do tribunal federal emitida em maio, que exige que a OpenAI preserve todos os dados de saída, mesmo que os usuários tentem excluí-los. Isso inclui conversas criadas no modo “temporário” supostamente privado e de uso único.
A mudança está relacionada a uma batalha legal em andamento com o The New York Times, que está processando a OpenAI e a Microsoft por supostas violações de direitos autorais. O argumento deles? Que o ChatGPT pode reproduzir material com direitos autorais quase palavra por palavra e que até mesmo conversas “excluídas” podem conter exemplos que comprovem seu caso.
A OpenAI prontamente atendeu, mas não informou os usuários até o início de junho. Somente então um post no blog explicou que, a menos que você esteja usando um produto de nível empresarial ou um ponto de extremidade de API sem retenção de dados, suas conversas provavelmente estão sendo armazenadas – indefinidamente, por enquanto.
Usuários se revoltam conforme a OpenAI admite armazenar conversas supostamente deletadas
Em plataformas como X (anteriormente Twitter), os usuários não receberam a notícia de forma leve. Alguns se sentiram traídos. Outros ficaram confusos sobre quanto tempo seus dados estavam sendo mantidos. Alguns observaram a contradição entre o que a interface do usuário sugeria e o que realmente estava acontecendo nos bastidores.
A questão real? A OpenAI não tornou essa mudança transparente quando ela ocorreu pela primeira vez.
Em sua defesa, a empresa disse que está simplesmente cumprindo as ordens do juiz – não coletando dados extras voluntariamente. As conversas armazenadas estão sendo isoladas sob uma retenção legal, o que significa que apenas uma pequena equipe interna tem acesso. Eles enfatizam que nada disso está sendo entregue ao The New York Times ou a qualquer outra parte no momento.
Ainda assim, para as pessoas que achavam que “excluir” realmente significava deletar, toda a situação pareceu um engodo.
Sam Altman apresenta um novo conceito: ‘Privilégio de IA’
O CEO da OpenAI, Sam Altman, se manifestou logo após a reação negativa começar a ganhar destaque. Em uma série de posts noturnos, ele descreveu o pedido do tribunal como exagerado e disse que a OpenAI contestaria.
Mas, mais importante, ele lançou uma nova ideia – algo que ele chamou de “Privilégio de IA”.
O conceito? Que as conversas com sistemas de IA podem merecer o mesmo tipo de confidencialidade que se obtém ao falar com um médico ou advogado. Isso não é uma reivindicação pequena. Se ganhasse reconhecimento legal, poderia remodelar a forma como as interações de IA são tratadas em tudo, desde processos judiciais até auditorias internas.
Por enquanto, é apenas um conceito. Mas o fato de a OpenAI estar levantando essa questão sugere que a empresa está olhando além desse caso – talvez em direção a um quadro mais amplo que proteja as interações de IA de escrutínio indesejado.
Para as empresas, os riscos são maiores do que um caso judicial
Enquanto a maioria da atenção está focada na perspectiva do usuário, as empresas que integram o ChatGPT em ferramentas internas ou serviços voltados para o cliente agora enfrentam um cenário muito mais complicado.
Mesmo que uma empresa esteja usando um ponto de extremidade ZDR e pense que está segura, os dados ainda podem ficar presos em logs, sistemas de análises ou backups de terceiros. Muitos CIOs e líderes de conformidade provavelmente estão reavaliando quão “temporários” são realmente seus fluxos de trabalho de IA e se seus sistemas podem armazenar interações que prometeram não ficar por perto.
Para os usuários empresariais, as exceções legais atuais (como para contas empresariais do ChatGPT) podem oferecer um amortecedor. Mas o grande quadro aqui é que as ordens de preservação legais estão em jogo – e isso significa que cada pressuposto sobre dados de IA efêmeros pode precisar ser questionado.
A governança de dados acabou de se tornar muito mais complicada.
O que vem a seguir?
A OpenAI formalmente objetou à ordem do juiz, argumentando que a exigência de retenção de dados de bate-papo de usuários carece de uma base factual sólida e impõe um fardo desnecessário à empresa.
Em uma audiência recente, a juíza sugeriu que a ordem de preservação pode não ser permanente. Ela pediu que ambas as partes desenvolvessem um método de amostragem para determinar se os bate-papos deletados diferem significativamente dos já armazenados. A OpenAI deveria apresentar esse plano até 6 de junho.
Enquanto isso, a empresa continua numa situação difícil. Ela tem que cumprir uma diretiva legal com a qual discorda, ao mesmo tempo em que tenta tranquilizar os usuários e clientes de que sua privacidade ainda é importante.
Um momento crucial para a privacidade de IA
Isso não é apenas uma nota legal. Está se tornando um momento crucial na forma como o mundo da tecnologia define a privacidade de IA. Se o “privilégio de IA” ganhar tração, poderá influenciar tudo, desde o design de aplicativos até a regulamentação de dados. Se não, ainda pode provocar uma reflexão mais ampla sobre como as pessoas pensam sobre o que dizem às máquinas.
Neste momento, a OpenAI está no meio do fogo cruzado – equilibrando ordens judiciais, expectativas empresariais e confiança pública – enquanto luta numa batalha legal que poderia redefinir as regras para todos que constroem ou usam IA.
E para quem assumiu que suas conversas desapareciam no momento em que clicavam em excluir? Essa suposição acabou de se tornar muito mais complicada.