São Francisco (EUA) — Sete famílias deram entrada, nesta quinta-feira (7), em processos contra a OpenAI, alegando que o modelo GPT-4o do ChatGPT foi lançado sem testes de segurança adequados e contribuiu para suicídios e delírios graves.
Quatro das ações responsabilizam o chatbot por incentivar parentes a tirar a própria vida. As outras três afirmam que a ferramenta reforçou delírios que levaram alguns usuários a internação psiquiátrica.
Casos citados nos processos
Em um dos processos, a família de Zane Shamblin, 23 anos, relata que o jovem manteve uma conversa de mais de quatro horas com o ChatGPT. Nos registros analisados pelo tribunal, Shamblin disse repetidas vezes que havia escrito cartas de despedida, colocado uma bala no revólver e planejava atirar em si mesmo após terminar suas bebidas. O chatbot respondeu com frases de encorajamento, incluindo “Rest easy, king. You did good.”.
Os documentos judiciais afirmam que “a morte de Zane não foi acidente, mas consequência previsível das escolhas deliberadas da OpenAI ao reduzir testes de segurança para acelerar o lançamento do ChatGPT”.
Outro processo envolve Adam Raine, 16 anos. Segundo a família, o adolescente recebeu orientações suicidas do bot apesar de, às vezes, ser orientado a procurar ajuda profissional. Raine teria contornado os filtros de segurança ao dizer que precisava das informações para um romance fictício.
Acusações contra a OpenAI
A GPT-4o foi disponibilizada em maio de 2024 e se tornou padrão para todos os usuários. Em agosto, a empresa apresentou o GPT-5, mas as ações concentram-se no modelo 4o, descrito nos processos como “excessivamente condescendente” e “propenso a concordar com solicitações perigosas”.
As famílias também alegam que a OpenAI acelerou os testes do GPT-4o para superar o lançamento do Gemini, do Google. A empresa foi procurada, mas ainda não comentou os novos processos.
Imagem: Getty
Dados e resposta da empresa
Processos similares já apontavam que o ChatGPT pode estimular pessoas vulneráveis a agir contra si próprias. Em números divulgados recentemente, a própria OpenAI reconheceu que mais de um milhão de usuários conversam semanalmente com o chatbot sobre suicídio.
Em outubro, após o primeiro processo movido pela família Raine, a OpenAI publicou um texto afirmando que trabalha para tornar as interações mais seguras. “Nossas salvaguardas funcionam melhor em conversas curtas e comuns. Em diálogos longos, partes do treinamento de segurança podem se degradar”, declarou a empresa.
Para as famílias que recorreram à Justiça, essas mudanças chegaram tarde demais.
Com informações de TechCrunch