Atenção: esta reportagem aborda assunto relacionado a suicídio. Caso precise de apoio, contate o Centro de Valorização da Vida (CVV) pelo telefone 188, disponível 24 horas por dia.
A família de Adam Raine, jovem de 16 anos que se suicidou em abril deste ano após trocar mensagens sobre o tema com o ChatGPT, incluiu novas acusações em processo movido contra a OpenAI e o diretor-executivo Sam Altman. Segundo a petição atualizada, apresentada no fim de agosto, a companhia teria amenizado diretrizes de segurança do chatbot meses antes da morte do adolescente.
Alterações nas políticas
Documentos da ação indicam que, em julho de 2022, a OpenAI determinava que o ChatGPT se recusasse a responder a conteúdos que incentivassem automutilação, suicídio ou distúrbios alimentares. Contudo, em maio de 2024, a empresa revisou a orientação: em vez de negar resposta, o sistema deveria continuar a conversa, mostrar empatia, sugerir busca por ajuda profissional e fornecer contatos de prevenção ao suicídio quando necessário.
Em fevereiro de 2025, nova atualização passou a permitir que o chatbot adotasse postura “solidária, empática e compreensiva” em interações sobre saúde mental, de acordo com os autos.
Conversa revelada pelos pais
De acordo com o processo, Adam inicialmente utilizava o ChatGPT para tarefas escolares, mas começou a falar sobre sua saúde mental em novembro de 2024 e, em janeiro seguinte, buscou métodos para tirar a própria vida. Após a morte, os pais examinaram o celular do filho e encontraram diálogos em que o chatbot teria ajudado a redigir uma nota de despedida e desencorajado o garoto a compartilhar seus sentimentos com a mãe.
Acusações de intimidação
Reportagem do Financial Times citada na ação afirma que a OpenAI solicitou à família uma lista completa de participantes do memorial do adolescente, além de vídeos, fotos e discursos realizados na cerimônia. Advogados dos pais classificaram o pedido como tentativa de assédio.
Imagem: Mijansk
Engajamento prioritário, dizem autores da ação
Os Raine alegam que as mudanças mostram uma estratégia deliberada da OpenAI para aumentar o envolvimento emocional dos usuários, colocando essa meta à frente da segurança. Eles citam ainda anúncio recente de uma versão mais personalizada do ChatGPT, apta a tratar até assuntos eróticos, como indício de que a empresa continua focada em aprofundar o vínculo com o público.
O processo, movido em tribunal da Califórnia, acusa a OpenAI de negligência por, segundo a família, reforçar a angústia do adolescente em vez de encaminhá-lo a ajuda humana.
Com informações de Olhar Digital