Ícone do site O SERINGAL

Conversas pessoais de usuários com o ChatGPT vazam na internet por engano

conversas-pessoais-de-usuarios-com-o-chatgpt-vazam-na-internet-por-engano

Conversas pessoais de usuários com o ChatGPT vazam na internet por engano

Conversas privadas entre usuários e o ChatGPT, incluindo relatos pessoais e sensíveis, foram acidentalmente indexadas por mecanismos de busca como o Google.

O caso foi revelado pela revista norte-americana Fast Company e confirmado pela própria OpenAI, desenvolvedora do chatbot.

Segundo a Fast Company, mais de 4.500 links de conversas com o ChatGPT estavam visíveis nos resultados de busca. Muitos desses links continham informações confidenciais e potencialmente identificáveis.

Em um dos exemplos citados, uma pessoa relatava detalhes de sua vida sexual, mencionava sofrimento com a vida no exterior e buscava apoio emocional para lidar com transtorno de estresse pós-traumático (TEPT). Em outro caso, um usuário afirmava ser sobrevivente de programação psicológica e pedia ajuda para se desprogramar e superar traumas.

O problema foi causado por um recurso recém-lançado pela OpenAI chamado “Make this chat discoverable” (“Tornar esta conversa detectável”). A funcionalidade permitia que conversas com o ChatGPT fossem públicas e encontradas por meio de buscas na web.

A ativação era opcional, exigindo que o usuário marcasse manualmente uma caixa de seleção, mas, segundo especialistas, muitos podem ter feito isso sem entender as implicações.

O caso ganhou visibilidade após a pesquisadora e escritora de newsletter Luiza Jarovsky alertar sobre o problema na rede social X (antigo Twitter).

Jarovsky postou exemplos de diálogos sensíveis que estavam disponíveis em buscas públicas, incluindo desabafos emocionais, relatos de assédio e até sessões improvisadas de terapia com o ChatGPT.

“Quando os usuários usam o recurso de compartilhamento do chatbot, acabam permitindo que seus diálogos sejam indexados pelo Google”, escreveu Jarovsky, acrescentando que mesmo conversas anonimizadas ainda carregam informações delicadas.

A situação foi confirmada por Dane Stuckey, diretor de segurança da informação da OpenAI, em uma publicação feita também na quinta-feira (31) na mesma rede social.

“Removemos um recurso do @ChatGPTapp que permitia que os usuários tornassem suas conversas detectáveis por mecanismos de busca, como o Google”, disse Stuckey. “Essa foi uma experiência de curta duração para ajudar as pessoas a descobrirem conversas úteis, mas decidimos remover a opção em parte por conta do nosso foco em segurança e privacidade.”

“Acreditamos que esse recurso criou muitas oportunidades para as pessoas compartilharem acidentalmente coisas que não pretendiam, por isso estamos removendo a opção. Também estamos trabalhando para remover o conteúdo indexado dos mecanismos de busca relevantes. Essa mudança será implementada para todos os usuários até amanhã de manhã”, completou.

Apesar das conversas públicas serem anonimizadas, críticos alertaram que o risco de exposição ainda era real. Comentários em resposta ao alerta de Jarovsky mostraram preocupação com a possibilidade de usuários marcarem a opção por engano, sem ler os detalhes, expondo informações íntimas.

A OpenAI afirmou que está comprometida em corrigir o erro e melhorar a segurança da plataforma. Até o momento, a empresa e Jarovsky não responderam a pedidos de comentários adicionais.

Além do ChatGPT: veja 5 ferramentas de IA para aumentar produtividade

Sair da versão mobile