Família de adolescente alega que OpenAI flexibilizou regras do ChatGPT antes de seu suicídio

Atenção: esta reportagem aborda assunto relacionado a suicídio. Caso precise de apoio, contate o Centro de Valorização da Vida (CVV) pelo telefone 188, disponível 24 horas por dia.

A família de Adam Raine, jovem de 16 anos que se suicidou em abril deste ano após trocar mensagens sobre o tema com o ChatGPT, incluiu novas acusações em processo movido contra a OpenAI e o diretor-executivo Sam Altman. Segundo a petição atualizada, apresentada no fim de agosto, a companhia teria amenizado diretrizes de segurança do chatbot meses antes da morte do adolescente.

Alterações nas políticas

Documentos da ação indicam que, em julho de 2022, a OpenAI determinava que o ChatGPT se recusasse a responder a conteúdos que incentivassem automutilação, suicídio ou distúrbios alimentares. Contudo, em maio de 2024, a empresa revisou a orientação: em vez de negar resposta, o sistema deveria continuar a conversa, mostrar empatia, sugerir busca por ajuda profissional e fornecer contatos de prevenção ao suicídio quando necessário.

Em fevereiro de 2025, nova atualização passou a permitir que o chatbot adotasse postura “solidária, empática e compreensiva” em interações sobre saúde mental, de acordo com os autos.

Conversa revelada pelos pais

De acordo com o processo, Adam inicialmente utilizava o ChatGPT para tarefas escolares, mas começou a falar sobre sua saúde mental em novembro de 2024 e, em janeiro seguinte, buscou métodos para tirar a própria vida. Após a morte, os pais examinaram o celular do filho e encontraram diálogos em que o chatbot teria ajudado a redigir uma nota de despedida e desencorajado o garoto a compartilhar seus sentimentos com a mãe.

Acusações de intimidação

Reportagem do Financial Times citada na ação afirma que a OpenAI solicitou à família uma lista completa de participantes do memorial do adolescente, além de vídeos, fotos e discursos realizados na cerimônia. Advogados dos pais classificaram o pedido como tentativa de assédio.

Engajamento prioritário, dizem autores da ação

Os Raine alegam que as mudanças mostram uma estratégia deliberada da OpenAI para aumentar o envolvimento emocional dos usuários, colocando essa meta à frente da segurança. Eles citam ainda anúncio recente de uma versão mais personalizada do ChatGPT, apta a tratar até assuntos eróticos, como indício de que a empresa continua focada em aprofundar o vínculo com o público.

O processo, movido em tribunal da Califórnia, acusa a OpenAI de negligência por, segundo a família, reforçar a angústia do adolescente em vez de encaminhá-lo a ajuda humana.

Com informações de Olhar Digital

Rolar para cima