Ferramenta pode escrever e executar códigos e acessar servidores externos, em tese
Tempo de leitura: 5 minutos

Bloomberg Opinion — Elon Musk, Steve Wozniak e outras figuras públicas assinaram uma carta aberta que viralizou nesta semana, em que pedem uma pausa de seis meses no treinamento de modelos de linguagem mais poderosos do que o GPT-4, a tecnologia que sustenta o ChatGPT.

LEIA +
Além do ChatGPT: como empresas planejam usar inteligência artificial nos negócios

Além de algumas estranhas inconsistências com os signatários, a carta é... esquisita. Ela critica a utilização da poderosa tecnologia, mas também exagera em suas capacidades, aproveitando o alarmismo com a IA (Inteligência Artificial) e robôs assassinos que cativaram a imprensa e distraíram de riscos do mundo real.

Deveríamos desenvolver mentes não humanas que possam eventualmente ultrapassar, ser mais espertas, tornar-nos obsoletos e nos substituir?”, pergunta dramaticamente (ênfase dos autores). “Deveríamos arriscar perder o controle de nossa civilização?”

Claro que não, mas há questões com as quais deveríamos nos preocupar mais agora, como a concentração das capacidades de IA entre algumas empresas cada vez mais sigilosas, a desigualdade que artistas enfrentam quando encontram seu trabalho plagiado sem remuneração e todos os riscos de empresas que se apressam para incorporar o ChatGPT a seus sistemas.

PUBLICIDADE

Sobre esse último ponto, o estrago já foi feito.

A OpenAI lançou na semana passada um novo sistema que permitirá às empresas conectar o ChatGPT a seus bancos de dados próprios, permitindo que o chatbot realize tarefas em seus sistemas como recuperar informações, fazer reservas e até mesmo executar novos softwares que ele cria.

Embora o anúncio não tenha recebido muita atenção da grande imprensa, muitos tecnólogos o consideraram um impressionante passo para o ChatGPT. O chatbot não só podia pesquisar e sintetizar informações sobre as quais havia sido treinado como também podia agir.

PUBLICIDADE
LEIA +
IA generativa, como ChatGPT, terá impacto significativo nos negócios, diz McKinsey

Pensemos um pouco. Os sistemas de machine learning tomam decisões em uma caixa preta impenetrável. A OpenAI passou sete meses testando o GPT-4 antes de liberá-lo, mas seus chamados engenheiros “red team”, que testaram como ele poderia ser mal utilizado, só conseguiram abranger uma fração das formas como ele poderia ser explorado por milhões de usuários do mundo real.

Por mais que a OpenAI tenha testado e investigado seu sistema para garantir sua segurança, ninguém sabe realmente a extensão total de seus riscos até que ele seja implantado publicamente. E esses riscos ficam mais sérios quando o ChatGPT consegue fazer coisas na web.

Correr tais riscos é, naturalmente, o que tornou o ChatGPT tão popular. A OpenAI fez uma aposta ao tornar público o ChatGPT e o resultado foi a adulação pública e o sucesso viral para uma equipe de IA que é minúscula em comparação com aquelas que trabalham para as big techs.

Agora com estes plugins, a OpenAI está fazendo outra aposta, dando ainda mais capacidade ao ChatGPT e liberando-o para as empresas. Até agora, 11 empresas incluindo, incluindo a Expedia (EXPE) e a operadora de pagamentos Klarna, atrelaram o ChatGPT a seus servidores para um teste inicial.

PUBLICIDADE

O plugin da Klarna, por exemplo, transformará o ChatGPT em um assistente de compras que pode fazer recomendações com base nos milhões de produtos cujo pagamento é facilitado pela empresa sueca. O plugin ainda não está disponível, mas, quando estiver, os usuários irão para a página do ChatGPT e farão o login, depois clicarão no plugin da Klarna para ativá-lo e “conversarão” com ele.

Algumas das novas capacidades que o OpenAI está oferecendo às empresas parecem obscuras. Uma delas, chamada “intérprete de código”, permite que uma empresa faça o ChatGPT escrever e até mesmo executar códigos em seu nome.

Os desenvolvedores de software normalmente usam um intérprete de código para garantir que o programa que estão desenvolvendo funcione como pretendido, permitindo que eles testem pequenos trechos. Com o novo plugin, o ChatGPT também pode escrever e testar códigos, e isso parece perigoso do ponto de vista de segurança.

PUBLICIDADE
LEIA +
JPMorgan restringe uso do ChatGPT por funcionários

“Espero que haja normativas suficientes”, disse Edo Liberty, ex-chefe da Amazon AI Labs e atual CEO da Pinecone, uma startup com parceria técnica com a OpenAI em um de seus novos plugins, quando lhe perguntei sobre os riscos de deixar o ChatGPT executar um código. “Isso é algo que teoricamente poderia ser uma vulnerabilidade.”

Marco Cardoso, um engenheiro de software da Microsoft (MSFT) de São Paulo, testou as novas habilidades de escrita de código do ChatGPT e viu como era impressionante que o sistema podia “fazer pedidos a qualquer servidor na internet”. Mas isso também significava que não havia “nada impedindo” o ChatGPT de acessar uma rede que não era para ser acessada.

Para evitar isso, Cardoso estabeleceu sua própria normativa, instruindo explicitamente a ferramenta a acessar apenas um domínio específico. Mas isso coloca uma responsabilidade extra sobre os usuários do ChatGPT, ele observou. O que o impede de fazer um pedido a um servidor desconhecido?

Ethan Mollick, um professor da Wharton School da Universidade da Pensilvânia que testou extensivamente o ChatGPT, publicou nesta semana em seu perfil no Twitter que testar os plugins colocou em evidência a própria pesquisa da OpenAI sobre os “riscos imprevisíveis” de conectar a ferramenta a outros sistemas.

A agilidade da OpenAI como uma pequena empresa permitiu que ela lançasse rapidamente uma nova tecnologia impressionante ao público, do DALL-E 2 ao ChatGPT ao GPT-4, tudo isso dentro de um ano, alcançando o tipo de impacto com o qual empresas muito maiores apenas sonham em exercer. Mas o lado negativo é que todos nós somos cobaias de uma tecnologia totalmente nova e possivelmente falha.

LEIA +
Uma ferramenta como o ChatGPT poderia gerir ações com sucesso?

De certa forma, não importa realmente se a OpenAI concorda com a carta aberta e pausará seu trabalho de desenvolvimento por seis meses. Com as empresas correndo para conectar o ChatGPT em seus sistemas e testá-lo em público, pode já ser tarde demais.

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Parmy Olson é colunista da Bloomberg Opinion e escreve sobre tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous.”

Veja mais em Bloomberg.com

Leia também

Musk, Wozniak e líderes tech pedem pausa em IA e sistemas como ChatGPT

Muito além do streaming: Netflix planeja levar serviço de games à televisão