Homem gesticulando em frente ao logotipo da Apple
Tempo de leitura: 6 minutos

Bloomberg Opinion — Há um preço a se pagar por todas as ferramentas de Inteligência Artificial (IA) generativa que os profissionais estão usando para serem mais eficientes. Não se trata apenas de uma taxa de assinatura da OpenAI, da Microsoft (MSFT), ou de outra empresa – mas também de sua privacidade.

Cada interação com ferramentas como o ChatGPT requer uma conexão com a internet, e cada consulta é processada em um servidor (essencialmente um computador muito mais poderoso do que o que você tem em casa) em um vasto data center.

Seu histórico de conversas geralmente é enviado ao modelo de IA para treiná-lo ainda mais, juntamente com suas informações pessoais. Mas isso desagradou quem está preocupado com a segurança dos dados.

Porém, se o “cérebro” de uma ferramenta de IA residisse em seu próprio computador, em vez de ser encaminhado para o de outra pessoa, a falta de privacidade poderia não ser um problema tão grande. A grande esperança para que isso aconteça é a Apple (AAPL).

PUBLICIDADE

A Apple é famosa por não ser a pioneira quando se trata de novas tecnologias. Ela demorou a entrar na corrida dos smartphones e não foi a primeira a lançar um smartwatch, mas agora domina ambos os mercados porque dedicou tempo para criar os dispositivos mais fáceis de usar. O mesmo acontece com a IA.

Construir a IA generativa “mais inteligente” tem tudo a ver com chips potentes e, embora a Nvidia (NVDA) domine esse mercado de servidores baseados em nuvem, a Apple está bem posicionada para ser a primeira a fazer isso com sucesso em dispositivos menores, mesmo que tenha sido pega de surpresa pelo boom da IA generativa.

Embora muitas empresas tentem descobrir como processar IA em smartphones e computadores – sem precisar se conectar a um servidor – elas enfrentam limitações técnicas que podem ser difíceis de superar sem os recursos de uma empresa de US$ 3 trilhões.

PUBLICIDADE
LEIA +
Com inteligência artificial na moda, a carreira de modelo ficará para trás?

Por um lado, a Apple já está projetando chips mais potentes para seus smartphones e computadores, incluindo os avançados chips da série M que proporcionam velocidades de processamento excepcionais. Os chips que a Nvidia fabrica para o processamento de IA em servidores ainda são muito mais potentes, mas isso pode não ser um problema se os próprios modelos de IA se tornarem menores e mais eficientes.

Isso aponta para outro fenômeno que impulsiona a tendência no dispositivo: enquanto os principais desenvolvedores de IA, como a OpenAI e o Google, da Alphabet (GOOGL), estão focados em tornar seus modelos o maior possível, muitos outros estão tentando torná-los menores e mais eficientes em termos de energia.

Nos últimos anos, a OpenAI descobriu que poderia fazer com que seus grandes modelos de linguagem parecessem muito mais fluentes e parecidos com os humanos se simplesmente aumentasse os parâmetros de seus modelos e a quantidade de poder de computação que eles usavam, exigindo enormes servidores em nuvem com chips poderosos.

Para colocar isso em perspectiva, há rumores de que o GPT-4 da OpenAI tem mais de 1 trilhão de parâmetros, ao passo que a Amazon está supostamente trabalhando em um modelo de linguagem chamado Olympus, que tem 2 trilhões.

PUBLICIDADE

Mas a Mistral, uma startup francesa de IA fundada por ex-cientistas pesquisadores da Google DeepMind e da Meta Platforms (META), está trabalhando em modelos de linguagem com uma fração desse número: seu mais recente modelo de linguagem de código aberto tem pouco mais de 40 bilhões de parâmetros, mas funciona tão bem quanto a versão gratuita atual do ChatGPT (e seu modelo subjacente GPT-3.5), de acordo com a empresa.

Alguns desenvolvedores de software estão capitalizando o trabalho da Mistral para dar início a serviços de IA mais privados. A Gravity AI, uma startup sediada em São Francisco, por exemplo, lançou recentemente um assistente de IA que funciona em laptops da Apple e não precisa de conexão com a internet. Ele foi desenvolvido com base no modelo mais recente e menor da Mistral e funciona de forma semelhante ao ChatGPT.

“Você não deveria ter de sacrificar a privacidade pela conveniência”, diz Tye Daniel, cofundador da Gravity AI. “Nunca venderemos seus dados.” No momento, o Gravity é gratuito, mas a startup planeja eventualmente cobrar uma assinatura dos clientes.

PUBLICIDADE

Como modelo de negócios, a IA no dispositivo promete margens melhores do que os serviços de IA que precisam ser vinculados à nuvem. Isso ocorre porque os desenvolvedores precisam pagar aos provedores de nuvem, como a Amazon.com (AMZN) ou a Microsoft, grandes quantias cada vez que um cliente usa sua ferramenta de IA, pois isso requer o poder de processamento dos servidores dessas big techs.

LEIA +
A corrida de Samsung e Apple para mapear o corpo humano com celulares e anéis

“Conversei com um fundador que está criando uma ferramenta [de IA] semelhante na nuvem”, disse Daniel. “Ele disse: ‘a única maneira de ganharmos dinheiro é se as pessoas não usarem o produto’.” Isso pode parecer contraintuitivo, mas até mesmo o CEO da OpenAI, Sam Altman, reclamou dos custos dolorosos de operar o ChatGPT para seus clientes.

“Adoraríamos se eles usassem menos”, disse ele aos legisladores no ano passado. Nada disso é um problema para gigantes da nuvem como Google e Microsoft, é claro, porque eles não apenas criam serviços de IA, mas também alugam os servidores que as pessoas precisam para que eles funcionem.

A Apple também está trabalhando para tornar os modelos de IA menores, assim como a francesa Mistral, para que seja possível executá-los em seus próprios dispositivos. Isso está de acordo com sua abordagem de “jardim murado” para tudo o que constrói.

Em dezembro passado, seus pesquisadores de IA anunciaram um avanço na execução de ferramentas avançadas de IA em iPhones, simplificando grandes modelos de linguagem usando algo chamado otimização de armazenamento flash.

É aqui que as coisas se tornam um pouco técnicas e que uma IA mais privada pode continuar sendo um sonho impossível por muitos meses ou até anos. Grandes modelos de linguagem não precisam apenas de poder de processamento, mas também de memória para funcionar bem: mesmo nos computadores e telefones mais robustos, essas ferramentas de IA estão esbarrando em memórias insuficientes.

Esse é um dos motivos pelos quais, quando tentei executar o assistente da Gravity AI no meu MacBook, ele gastou 30 segundos ou mais para processar algumas das minhas consultas, e os outros aplicativos em execução na minha máquina travaram enquanto eu esperava.

Agora todos os holofotes estão voltados para a Apple para ver se ela consegue resolver esse dilema técnico. Os modelos de IA não são apenas privados, mas também mais baratos de operar e melhores para o meio ambiente, considerando todo o carbono que os servidores emitem.

A Agência Internacional de Energia prevê que a demanda global de eletricidade dos data centers e da IA poderá mais do que dobrar nos próximos três anos, adicionando o equivalente a toda a necessidade de energia da Alemanha.

A Apple precisa agir rapidamente se quiser incluir modelos avançados de IA em seus telefones: as vendas de smartphones estão estagnadas em todo o mundo, e sua arquirrival Samsung já está obtendo sucesso em destilar modelos de IA também. Se a Apple for bem-sucedida, isso poderá dar início a uma mudança no campo da IA que beneficie mais players do setor.

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Parmy Olson é colunista da Bloomberg Opinion e cobre a área de tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous”.

Veja mais em Bloomberg.com

Leia também

O plano da Amazon para transformar a televisão no novo carrinho de compras

Estrangeiros veem ‘oportunidade única’ em dívida local no Brasil e em LatAm