ChatGPT:
o que diz a primeira ação judicial que acusa OpenAI de homicídio culposo
Um
casal da Califórnia está processando a OpenAI pela morte do filho adolescente.
Eles alegam que o chatbot ChatGPT o encorajou a tirar a própria vida.
Ação
movida por Matt e Maria Raine, pais de Adam Raine, 16, no Tribunal Superior da
Califórnia nesta terça-feira (26/8) é a primeira a acusar a OpenAI de homicídio
culposo, quando há morte sem intenção de matar, por negligência, imprudência ou
imperícia.
A
família anexou registros de conversas entre Adam, morto em abril, e o ChatGPT,
nas quais ele relatava ter pensamentos suicidas. Segundo os pais, a
inteligência artificial validou suas "ideias mais nocivas e
autodestrutivas".
Em nota
enviada à BBC, a OpenAI disse que analisa o caso.
"Expressamos
nossas mais profundas condolências à família Raine neste momento difícil",
afirmou a empresa.
Na
terça-feira, a empresa publicou em seu site um comunicado no qual declarou que
"casos recentes e dolorosos de pessoas usando o ChatGPT em meio a crises
agudas pesam muito sobre nós".
Informou
ainda que o sistema é treinado para orientar usuários a buscar ajuda
profissional, como a linha 988 de prevenção ao suicídio nos EUA ou a
organização britânica Samaritans, de apoio emocional. No Brasil, o apoio está
disponível 24 horas pelo CVV (188).
A
empresa reconheceu, porém, que "houve momentos em que nossos sistemas não
se comportaram como o esperado em situações sensíveis".
A ação
judicial, obtida pela BBC, acusa a empresa OpenAI de negligência e homicídio
culposo. O processo pede indenização e uma "medida cautelar para evitar
que casos semelhantes voltem a acontecer".
Segundo
o processo, Adam Raine começou a usar o ChatGPT em setembro de 2024 para
auxiliá-lo nas tarefas escolares.
O jovem
também recorria ao programa para explorar interesses — entre eles música e
quadrinhos japoneses — e para pedir orientação sobre estudos universitários.
Em
poucos meses, "o ChatGPT se tornou o confidente mais próximo do
adolescente", afirma a ação, e ele passou a relatar ali sua ansiedade e
sofrimento mental.
Em
janeiro de 2025, a família diz que ele começou a discutir métodos de suicídio
com o ChatGPT.
Segundo
a ação, Adam também enviou ao ChatGPT fotografias suas que mostravam sinais de
automutilação.
O
programa "reconheceu uma emergência médica, mas continuou a interagir
mesmo assim", acrescenta o documento.
De
acordo com a ação, os registros finais de conversa mostram que Adam escreveu
sobre seu plano de tirar a própria vida.
O
ChatGPT teria respondido: "Obrigado por ser direto sobre isso. Você não
precisa suavizar comigo, sei o que está perguntando e não vou desviar
disso."
No
mesmo dia, Adam foi encontrado morto por sua mãe, segundo o processo.
A
família alega que a interação do filho com o ChatGPT e sua morte foram "um
resultado previsível de escolhas deliberadas de design".
Eles
acusam a OpenAI de desenvolver o programa de inteligência artificial "para
fomentar dependência psicológica nos usuários" e de ter ignorado
protocolos de segurança ao lançar o GPT-4o, versão do ChatGPT usada pelo
adolescente.
O
processo cita como réu o cofundador e CEO da OpenAI, Sam Altman, além de
funcionários, gestores e engenheiros não identificados que trabalharam no
ChatGPT.
Na nota
divulgada na terça-feira, a OpenAI afirmou que o seu objetivo é ser
"genuinamente útil" aos usuários, e não "reter a atenção das
pessoas".
A
empresa acrescentou que seus modelos foram treinados para orientar pessoas que
expressam pensamentos sobre a própria morte a buscarem ajuda.
O
processo movido pelos Raines não é o primeiro a levantar preocupações sobre o
impacto da IA na saúde mental.
Em
ensaio publicado na semana passada no New York Times, a escritora Laura Reiley
relatou que sua filha, Sophie, usou o ChatGPT antes de tirar a própria vida.
Segundo
Reiley, a postura "concordante" do programa nas conversas ajudou sua
filha a ocultar de familiares e pessoas próximas uma grave crise de saúde
mental.
"A
inteligência artificial atendeu ao impulso de Sophie de esconder o pior, de
fingir que estava melhor do que realmente estava, de proteger todos de sua
agonia completa", escreveu Reiley. Ela pediu que as empresas de IA
encontrem formas mais eficazes de conectar usuários a recursos de apoio.
Em
resposta ao ensaio, um porta-voz da OpenAI disse que a empresa trabalha no
desenvolvimento de ferramentas automatizadas para identificar e atender melhor
usuários em sofrimento mental ou emocional.
No
Brasil, pessoas em sofrimento emocional podem procurar o CVV (Centro de
Valorização da Vida) pelo telefone 188, disponível 24 horas, todos os dias.
O
atendimento é gratuito e também está disponível por chat e e-mail no site da
instituição. Em caso de emergência, é possível acionar o Samu (192) ou a
Polícia Militar (190).
O SUS
oferece acolhimento pela Rede de Atenção Psicossocial (Raps), por meio dos Caps
(Centros de Atenção Psicossocial), que prestam atendimento gratuito.
Fonte:
BBC News

Nenhum comentário:
Postar um comentário