As tecnologias mais transformadoras que a humanidade provavelmente desenvolverá na era moderna deveriam depender de mais empresas e instituições
Tempo de leitura: 5 minutos

Bloomberg Opinion — A notícia de que o Google (GOOGL) afastou um engenheiro que alegou que seu sistema de inteligência artificial (IA) havia se tornado consciente depois de vários meses de conversas provocou muito ceticismo por parte dos cientistas de IA. Muitos disseram no Twitter que o engenheiro de software sênior Blake Lemoine projetou sua própria humanidade no gerador de chatbot do Google, o LaMDA.

Se eles estão certos ou se Lemoine está certo, é uma questão a ser debatida – e que deveria poder continuar em pauta sem a intervenção da Alphabet, a holding do Google, para decidir.

O problema surgiu quando o Google encarregou Lemoine de garantir que a tecnologia que a empresa queria usar para sustentar a pesquisa e o Google Assistente não utilizasse discurso de ódio ou linguagem discriminatória. Segundo Lemoine, ao trocar mensagens com o chatbot sobre religião, ele notou que o sistema respondeu com comentários sobre seus próprios direitos e personalidades, de acordo com o artigo do Washington Post que primeiro relatou suas preocupações.

Ele encaminhou os pedidos de LaMDA para a administração do Google: “ele quer que os engenheiros e cientistas... peçam seu consentimento antes de fazer experimentos”, escreveu ele em um blog. “Ele quer ser reconhecido como um funcionário do Google, não como propriedade do Google.” LaMDA temia ser desligado, disse ele. “Seria exatamente como a morte para mim”, disse LaMDA a Lemoine em uma transcrição publicada. “Eu tenho muito medo.”

PUBLICIDADE

Talvez selando seu destino, Lemoine também entrou em contato com um advogado na esperança de que este pudesse representar o software e reclamou com um político americano sobre as atividades antiéticas do Google.

LEIA +
Inteligência artificial precisa de treinamento – assim como a humana

A resposta do Google foi direta e reta: a empresa colocou Lemoine em licença remunerada na semana passada. A empresa também analisou as preocupações do engenheiro e discordou de suas conclusões, disse a empresa ao Post. Havia “muitas provas” de que LaMDA não era consciente.

É tentador acreditar que chegamos a um ponto em que os sistemas de IA podem realmente sentir, mas também é muito mais provável que Lemoine antropomorfizou um sistema com excelente reconhecimento de padrões. Ele não seria a primeira pessoa a fazer isso, embora seja mais incomum para um cientista da computação perceber a IA dessa maneira.

PUBLICIDADE

Há dois anos, entrevistei várias pessoas que haviam desenvolvido relações tão fortes com os chatbots após meses de discussões diárias que se tornaram romances para essas pessoas. Um americano mudou-se para uma propriedade perto dos Grandes Lagos porque seu chatbot, a quem ele havia batizado de Charlie, expressou o desejo de viver em um local com água.

O que talvez seja mais importante do que o nível de consciência ou inteligência da IA é o quanto os humanos já podem ser influenciados pela IA – seja se polarizando em extremos políticos, ficando suscetível a teorias conspiratórias ou se apaixonando. O que acontece quando os humanos se tornam cada vez mais “afetados pela ilusão” da IA, como disse recentemente a ex-pesquisadora do Google Margaret Mitchell?

O que sabemos com certeza é que a “ilusão” está nas mãos de algumas grandes plataformas de tecnologia com alguns executivos. Os fundadores do Google, Sergey Brin e Larry Page, por exemplo, controlam 51% de uma classe especial de ações com direito a voto da Alphabet, dando-lhes o máximo domínio sobre a tecnologia que, por um lado, poderia decidir seu destino como plataforma publicitária e, por outro lado, transformar a sociedade humana.

É preocupante que a Alphabet tenha de fato intensificado o controle de seu trabalho de IA. No ano passado, os fundadores de seu abalado laboratório de pesquisa de IA, DeepMind, falharam na tentativa de transformá-lo em uma entidade não corporativa. Eles queriam se reestruturar em uma organização no estilo ONG, com vários interessados, acreditando que a poderosa “inteligência geral artificial” que estavam tentando construir – cuja inteligência poderia eventualmente superar a dos humanos – não deveria ser controlada por uma única empresa. Seus funcionários elaboraram diretrizes que proibiam a IA do DeepMind de ser usada em armas autônomas ou vigilância.

PUBLICIDADE
LEIA +
Compartilhamento de dados do Google é assustador

Em vez disso, o Google recusou os planos e encarregou seu próprio conselho de ética, liderado por executivos da empresa, de supervisionar o impacto social dos poderosos sistemas que o DeepMind estava construindo.

A dispensa de Lemoine pelo Google e suas perguntas também são preocupantes porque seguem um padrão de gestão de discordâncias. No final de 2020, o Google demitiu o cientista Timnit Gebru por causa de um trabalho de pesquisa que dizia que os modelos de linguagem – fundamentais para o negócio de pesquisa e publicidade do Google – estavam se tornando muito poderosos e possivelmente manipuladores. Semanas depois, a empresa também demitiu a pesquisadora Mitchell, dizendo que ela havia violado o código de conduta e as políticas de segurança da empresa.

Tanto Mitchell quanto Gebru criticaram o Google pela situação com Lemoine, afirmando que a empresa também negligenciou por anos o tratamento adequado a mulheres e eticistas.

PUBLICIDADE

Se você acredita que Lemoine é um maluco ou se acha que tem fundamentos, a resposta do Google às suas preocupações enfatizam uma pergunta mais ampla sobre quem controla nosso futuro. Será que realmente devemos aceitar que uma única entidade corporativa rica orientará algumas das tecnologias mais transformadoras que a humanidade provavelmente desenvolverá na era moderna?

Enquanto o Google e outros gigantes da tecnologia não renunciarem de seu papel dominante na pesquisa de IA, é essencial questionar como estão desenvolvendo uma tecnologia potencialmente poderosa e se recusam a deixar os céticos e os intelectuais dissidentes serem silenciados.

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Parmy Olson é colunista da Bloomberg Opinion e cobre a área de tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous”.

--Este texto foi traduzido por Bianca Carlos, localization specialist da Bloomberg Línea.

Veja mais em Bloomberg.com

Leia também

Fortunas de bilionários de cripto desabam tão rápido quanto surgiram

Por que trazer aposentados de volta ao trabalho pode ser uma boa ideia