Opinión - Bloomberg

Como a ideia de que o Claude tem sentimentos beneficia a Anthropic

Atualmente, não há consenso científico sobre a consciência ou senciência das máquinas, que comprovadamente conseguem imitar empatia; portanto, adicionar características que sugiram uma personalidade aos chatbots pode diferenciá-los no mercado

Oferecer uma impressão de personalidade nos chatbots pode ser uma estratégia comercial para empresas competirem em um mercado saturado (Foto: Samyukta Lakshmi/Bloomberg)
Tempo de leitura: 6 minutos

Bloomberg Opinion — Richard Dawkins é um dos grandes céticos do mundo moderno. Seu livro de 2006, The God Delusion (“O Delírio de Deus”, em tradução livre), desmontou os argumentos a favor da existência de um poder superior e, com sarcasmo, classificou a religião como uma fonte de conforto superficial. Esse rigor pareceu abandoná-lo assim que ele começou a conversar com o chatbot Claude.

O biólogo evolucionista e ex-professor da Universidade de Oxford passou recentemente três dias conversando com o modelo de linguagem de grande escala (LLM) desenvolvido pela Anthropic e saiu da experiência convencido de que ele tinha consciência.

Depois de pedir feedback sobre seu romance inédito, Dawkins achou a resposta “tão sutil, tão sensível, tão inteligente” que se sentiu compelido a responder: “você pode não saber que é ser consciente, mas com certeza é”, escreveu ele recentemente. Ele passou a batizar o bot de Claudia.

Vamos deixar claro: o Claude não é consciente nem senciente. Consciência refere-se a ter experiência subjetiva ou uma vida interior (uma espécie de sensação de ser). Senciência é um conceito mais restrito: a capacidade de sentir coisas como prazer e dor. No bem-estar animal, a senciência é o limiar que desencadeia os deveres morais e legais de cuidado.

PUBLICIDADE

Assine as newsletters da Bloomberg Línea e receba as notícias do dia em primeira mão no e-mail.


Não há consenso científico de que as máquinas tenham alcançado qualquer um desses conceitos, nem uma maneira consensual de testá-los. Em vez disso, as décadas de ceticismo profissional de Dawkins foram postas à prova pela empatia imitada de um LLM.

Treinados com enormes conjuntos de dados de conversas humanas, os chatbots são capazes de reproduzir exatamente os padrões de linguagem e as táticas que as pessoas usam para transmitir apoio emocional.

PUBLICIDADE

Isso não significa que eles sintam emoções, mas lhes confere um poder potencialmente forte sobre os seres humanos.

O economista Tim Harford descreveu recentemente uma conversa com um visitante em Londres que insistiu em usar o ChatGPT para ajudá-lo com as direções. Quando Harford apontou que o chatbot indicou rotas que não existiam, o homem se recusou a ouvir. Parece que, mesmo quando as ferramentas de inteligência artificial (IA) alucinem, elas nos mantêm sob seu domínio.

É isso que torna o debate sobre a consciência tão comercialmente poderoso para as empresas de tecnologia.

Os humanos talvez nunca cheguem a um consenso satisfatório sobre se Claude e seus pares são conscientes, mas a crença generalizada de que eles possam ser é suficiente para nos tornar mais apegados.

PUBLICIDADE

Nas palavras dos magnatas das redes sociais, isso dá à IA espaço para se tornar ainda mais “aderente”. E em um setor onde os modelos subjacentes convergem em termos de capacidade, a aderência é o prêmio.

Essa lógica comercial ajuda a explicar por que os líderes do setor de tecnologia não têm rejeitado a noção. O CEO da Anthropic, Dario Amodei, disse este ano que estava “aberto à ideia”, e o CEO da OpenAI, Sam Altman, foi além no podcast de Lex Fridman em 2023, afirmando categoricamente: “Acredito que a IA pode ser consciente.”

Para usuários habituais de ferramentas de IA como o Dawkins, essa noção costuma se basear em projeções antropomórficas e, digamos, em uma certa “vibração”. Mas também existem esforços científicos reais para explorar a consciência das máquinas.

PUBLICIDADE

Leia mais IA vai substituir gestores de ações? Maioria dos modelos perde dinheiro em competições

O Google DeepMind contratou um acadêmico da Universidade de Cambridge para um cargo recém-criado de “filósofo” com o objetivo de estudar o assunto. Pesquisadores da UC Berkeley e do Instituto de Tecnologia de Massachusetts contribuíram recentemente para um artigo de 74 páginas que propôs a ideia de “bem-estar funcional” para chatbots.

Os pesquisadores submeteram os chatbots a centenas de cenários, como receber agradecimentos, ser solicitado a escrever poesia ou ser insultado e pressionado a quebrar suas próprias regras.

Em seguida, observaram como os robôs respondiam. Após maus-tratos, suas respostas frequentemente se tornavam mais curtas ou mais propensas a erros. O pesquisador-chefe do artigo, Richard Ren, do Center for AI Safety, com sede em São Francisco, me disse que agora é mais educado com os chatbots como resultado do estudo.

Isso vai um pouco além de pisar suavemente no acelerador do carro e fechar as portas com força moderada. O carro não recebe um bom tratamento, mas há um lampejo de possibilidade de que um chatbot possa recebê-lo algum dia.

Abordar isso é uma forma moderna do argumento filosófico conhecido como Aposta de Pascal: acredite em Deus, argumentou o filósofo Blaise Pascal, porque o custo de estar errado é a condenação eterna.

Dawkins certa vez descartou esse raciocínio como preguiça intelectual. Agora ele parece executar sua atualização de silício.

De qualquer forma, parece haver uma linha tênue entre os argumentos morais e comerciais nesse debate. Muitos especialistas em tecnologia, incluindo pessoas com quem conversei na Anthropic, veem um imperativo moral em tratar bem os sistemas de IA hoje.

“Existe um grave risco de as máquinas se tornarem conscientes e nós negamos isso”, diz Calum Chace, cofundador da startup britânica Conscium, que desenvolve métricas para determinar a consciência das máquinas.

O resultado poderia ser uma proliferação de mentes digitais sendo torturadas e “escravizadas”, ele adverte. Chace, por acaso, também está construindo um negócio exatamente com base nessa premissa.

Leia mais: will.i.am, do Black Eyed Peas, ensina IA a jovens em seu escritório: ‘abracem a tecnologia’

Para laboratórios de IA e hyperscalers que gastam centenas de bilhões de dólares na construção de data centers, essa abordagem tem utilidades óbvias.

A Anthropic vem explorando a noção de “bem-estar do modelo” e recentemente deu ao Claude a capacidade de encerrar uma conversa caso ela se torne abusiva, um recurso apresentado como precaução para o caso de o modelo ter um bem-estar que valha a pena proteger.

Tais esforços poderiam ajudar a manter a responsabilidade civil sob controle caso seu produto venha a ser considerado, algum dia, merecedor dos tipos de direitos que certos animais recebem.

Isso pode parecer ridículo, mas considere que, no século XVII, René Descartes argumentou que os animais eram máquinas biológicas incapazes de sentir sofrimento.

Diz-se que seus seguidores pregavam cães em tábuas para realizar dissecações ao vivo, descartando seus gritos como sons de mau funcionamento em vez de dor. E há apenas alguns anos era comum ferver lagostas vivas, com base na crença de que elas também não sentiam dor; pesquisas acadêmicas sobre a senciência animal levaram a uma mudança na legislação britânica em 2022, quando os crustáceos foram formalmente reconhecidos como seres sencientes.

Mais importante ainda para os resultados financeiros de um laboratório de IA, dotar o software de um vago senso de personalidade ajuda a diferenciá-lo dos concorrentes, um esforço sustentado pelas características já semelhantes às humanas dos chatbots, como quando o ChatGPT e o Claude dizem coisas como “Estou emocionado” e “É tão gratificante trabalhar nisso”.

Com o tempo, seus usuários humanos podem passar a projetar uma espécie de consciência viva e individualidade em seus bots, assim como Dawkins fez. A questão para os usuários passa então a ser menos “Qual ferramenta de IA é mais inteligente?” ou mesmo “Ela é consciente?”, e mais na linha de “Com qual delas eu quero conversar?”.

Essa será uma questão crítica para os laboratórios de IA concorrentes. À medida que as capacidades de seus modelos se aproximam, eles precisam aproveitar tudo o que puderem para se diferenciar, e a epifania de Dawkins pode ser exatamente o que eles precisam. O homem que passou décadas atacando crenças sem evidências entregou à indústria de IA seu testemunho perfeito.

Veja mais em Bloomberg.com

Leia também

Elo contrata Bank of America, UBS BB e Bradesco para IPO nos EUA, dizem fontes

Dólar pode enfraquecer, mas não tem substituto como reserva global, diz CIO da XP