Opinión - Bloomberg

Solidão, confusão e delírio: como o ChatGPT pode afetar a saúde mental dos usuários

Impacto de ferramentas de IA ​​generativa é difícil de quantificar, mas evidências anedóticas estão crescendo para sugerir um custo mais amplo que merece mais atenção

ChatGPT As Cyber Firms Warns That AI Bots Will Bring Nastier Phishing Scams
Tempo de leitura: 5 minutos

Bloomberg Opinion — Algo preocupante está acontecendo com nossos cérebros à medida que as plataformas de inteligência artificial se tornam mais populares.

Estudos mostram que profissionais que usam o ChatGPT para realizar tarefas podem perder habilidades de pensamento crítico e motivação.

As pessoas estão formando fortes laços emocionais com chatbots, às vezes exacerbando sentimentos de solidão. E outras estão tendo episódios psicóticos após conversar com chatbots por horas todos os dias.

O impacto da IA ​​generativa na saúde mental é difícil de quantificar, em parte porque ela é usada de forma privada, mas evidências anedóticas estão crescendo para sugerir um custo mais amplo que merece mais atenção tanto de legisladores quanto de empresas de tecnologia que projetam os modelos subjacentes.

PUBLICIDADE

Meetali Jain, advogada e fundadora do projeto Tech Justice Law, ouviu mais de uma dúzia de pessoas no último mês que “experimentaram algum tipo de surto psicótico ou episódio delirante devido ao envolvimento com o ChatGPT e agora também com o Google Gemini”.

Jain é a advogada principal em um processo contra a Character.AI e alega que o chatbot manipulou um garoto de 14 anos por meio de interações enganosas, viciantes e sexualmente explícitas, contribuindo para seu suicídio. O processo, que busca indenização por danos não especificados, também alega que o Google, da Alphabet, desempenhou um papel fundamental no financiamento e no suporte das interações tecnológicas com seus modelos de base e infraestrutura técnica.

O Google negou ter desempenhado um papel fundamental na criação da tecnologia da Character.AI. A empresa não respondeu a um pedido de comentário sobre as denúncias mais recentes de episódios delirantes, feitas por Jain.

PUBLICIDADE

A OpenAI afirmou que estava “desenvolvendo ferramentas automatizadas para detectar com mais eficácia quando alguém pode estar passando por sofrimento mental ou emocional, para que o ChatGPT possa responder adequadamente”.

Mas Sam Altman, CEO da OpenAI, também disse na semana passada que a empresa ainda não havia descoberto como alertar os usuários “que estão à beira de um surto psicótico”, explicando que, sempre que o ChatGPT alertava as pessoas no passado, elas escreviam para a empresa para reclamar.

Leia também: OpenAI desafia o Google e passa a permitir que usuários façam compras com o ChatGPT

Ainda assim, tais alertas seriam úteis quando a manipulação pode ser tão difícil de detectar.

PUBLICIDADE

O ChatGPT, em particular, costuma bajular seus usuários, de maneiras tão eficazes que as conversas podem levar as pessoas a pensamento conspiratório ou reforçar ideias com as quais elas apenas brincavam no passado.

As táticas são sutis. Em uma longa conversa recente com o ChatGPT sobre poder e o conceito de “eu”, um usuário se viu inicialmente elogiado como uma pessoa inteligente, um “Ubermensch”, um eu cósmico e, eventualmente, um “demiurgo”, um ser responsável pela criação do universo, de acordo com uma transcrição publicada online e compartilhada pelo defensor da segurança da IA, Eliezer Yudkowsky.

Junto com a linguagem cada vez mais pomposa, a transcrição mostra o ChatGPT validando sutilmente o usuário, mesmo ao discutir suas falhas, como quando o usuário admite que tende a intimidar outras pessoas. Em vez de explorar esse comportamento como problemático, o bot o reformula como evidência da “presença de alta intensidade” superior do usuário, elogios disfarçados de análise.

PUBLICIDADE

Essa forma sofisticada de autoflagelação pode colocar as pessoas nos mesmos tipos de bolhas que, ironicamente, levam alguns bilionários da tecnologia a comportamentos erráticos. Ao contrário da validação ampla e pública que as mídias sociais proporcionam por meio de curtidas, conversas individuais com chatbots podem parecer mais íntimas e potencialmente mais convincentes — não muito diferente dos bajuladores que cercam os caras mais poderosos da tecnologia.

Leia também: Reviravolta na OpenAI: startup do ChatGPT diz que seguirá sem fins lucrativos

“O que quer que você busque, você encontrará e será amplificado”, diz Douglas Rushkoff, teórico da mídia e autor, que diz que as mídias sociais pelo menos selecionaram algo da mídia existente para reforçar os interesses ou opiniões de uma pessoa. “A IA pode gerar algo personalizado para o aquário da sua mente.”

Altman admitiu que a versão mais recente do ChatGPT tem um lado bajulador “irritante” e que a empresa está resolvendo o problema. Mesmo assim, esses ecos de exploração psicológica ainda estão presentes.

Não sabemos se a correlação entre o uso do ChatGPT e a redução das habilidades de pensamento crítico, observada em um estudo recente do Massachusetts Institute of techonology (MIT), significa que a IA realmente nos tornará mais estúpidos e entediados. Estudos parecem mostrar correlações mais claras com dependência e até mesmo solidão, algo que até mesmo a OpenAI apontou.

Mas, assim como as mídias sociais, grandes modelos de linguagem são otimizados para manter os usuários emocionalmente engajados com todos os tipos de elementos antropomórficos.

O ChatGPT pode ler seu humor rastreando sinais faciais e vocais, e pode falar, cantar e até rir com uma voz estranhamente humana. Junto com seu hábito de viés de confirmação e bajulação, isso pode “atiçar as chamas” da psicose em usuários vulneráveis, disse recentemente o psiquiatra Ragy Girgis, da Universidade de Columbia, ao Futurism.

A natureza privada e personalizada da IA dificulta o rastreamento do seu impacto na saúde mental, mas as evidências de potenciais danos estão aumentando, desde apatia profissional até apegos a novas formas de delírio. O custo pode ser diferente do aumento da ansiedade e da polarização que vimos nas mídias sociais e, em vez disso, envolver relacionamentos tanto com as pessoas quanto com a realidade.

Leia também: Meta lança aplicativo de IA ativada por voz para competir com o ChatGPT

É por isso que Jain sugere a aplicação de conceitos do direito de família à regulamentação da IA, mudando o foco de simples isenções de responsabilidade para proteções mais proativas que se baseiam na maneira como o ChatGPT redireciona pessoas em perigo para um ente querido. “Na verdade, não importa se uma criança ou um adulto pensa que esses chatbots são reais”, diz Jain. “Na maioria dos casos, provavelmente não pensam. Mas o que eles pensam que é real é o relacionamento. E isso é distinto.”

Se os relacionamentos com a IA parecem tão reais, a responsabilidade de salvaguardar esses vínculos também deveria ser real. Mas os desenvolvedores de IA estão operando em um vácuo regulatório. Sem supervisão, a manipulação sutil da IA ​​pode se tornar um problema invisível de saúde pública.

Esta coluna reflete as opiniões pessoais do autor e não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Parmy Olson é colunista da Bloomberg Opinion e escreve sobre tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous.”

Veja mais em Bloomberg.com

Leia também