OpenAI nega que ChatGPT levou jovem de 16 anos a cometer suicídio
A OpenAI negou alegações de que é responsável pelo suicídio de um adolescente, depois da sua família ter processado a empresa em agosto, alegando que o jovem de 16 anos usou o ChatGPT como “coach de suicídio”.
O popular chatbot de inteligência artificial (IA) ChatGPT é desenvolvido pela OpenAI, que respondeu às alegações, pela primeira vez, na terça-feira. A resposta judicial foi apresentada no Tribunal Superior da Califórnia, em São Francisco.
Os pais do jovem Adam Raine, de 16 anos, que se suicidou em abril, intentaram uma ação contra a empresa e o seu CEO, Sam Altman. A família de Raine alega que este desenvolveu uma dependência psicológica do ChatGPT, que, segundo dizem, o ajudou a tirar a própria vida e a escrever uma nota de suicídio.
Registos da conversa no processo mostram que o ChatGPT desencorajou o adolescente a procurar ajuda psicológica, ofereceu ajuda para escrever uma nota de suicídio e aconselhou-o a montar uma forca, segundo relatos da comunicação social.
No requerimento, a OpenAI sustentou que o “evento trágico” se deveu ao “uso indevido, não autorizado, não intencional, imprevisível e/ou inadequado do ChatGPT por parte de Raine”, citou a NBC News.
A OpenAI acrescentou que o adolescente não deveria usar a tecnologia sem consentimento parental e não deveria contornar as medidas de proteção do ChatGPT. Numa publicação online, a empresa escreveu que o objetivo "é tratar os processos judiciais relacionados com saúde mental com cuidado, transparência e respeito".
Referiu, ainda, que a resposta ao processo da família Raine incluía "factos difíceis sobre a saúde mental de Adam e as suas circunstâncias de vida".
"As nossas mais profundas condolências à família Raine pela perda inimaginável", lê-se na publicação.
Jay Edelson, advogado da família Raine, disse à NBC News que a OpenAI “ignorou abertamente todos os factos incriminatórios que apresentámos: como o GPT-4o foi lançado apressadamente, sem testes completos”.
Acrescentou que a OpenAI alterou por duas vezes a sua Model Spec para exigir que o ChatGPT participasse em discussões sobre autolesão e que o ChatGPT dissuadiu Adam de contar aos pais a sua ideação suicida, ajudando ativamente a planear um “suicídio bonito”.
O caso de Raine é um de vários processos que alegam que o ChatGPT levou pessoas a comportamentos suicidas ou a delírios prejudiciais.
Desde setembro, OpenAI reforçou os controlos parentais**,** que incluem alertar os pais quando o filho aparenta estar angustiado.
Se pondera o suicídio e precisa de falar, por favor contacte a Befrienders Worldwide, uma organização internacional com linhas de apoio em 32 países. Visite befrienders.org para encontrar o número de telefone da sua localização.
Today