Siri com ChatGPT? Apple estuda usar modelos da OpenAI ou da Anthropic em seu sistema

Segundo fontes que falaram com a Bloomberg News, a fabricante do iPhone conversou com as startups de IA para usar sua tecnologia na assistente virtual Siri

Apple, golpeada con rebajas de calificación ante crecientes preocupaciones por los aranceles.
Por Mark Gurman
30 de Junho, 2025 | 06:50 PM

Bloomberg — A Apple considera usar a tecnologia de inteligência artificial da Anthropic ou da OpenAI para alimentar uma nova versão da Siri, deixando de lado seus próprios modelos internos em um movimento potencialmente revolucionário voltado a reverter as dificuldades de seus esforços de IA.

A fabricante do iPhone conversou com ambas as empresas sobre usar seus grandes modelos de linguagem para a Siri, de acordo com pessoas familiarizadas com as discussões que falaram com a Bloomberg News.

PUBLICIDADE

A empresa pediu que as startups treinassem versões de seus modelos que pudessem rodar na infraestrutura de nuvem da Apple para testes, disseram as pessoas, que pediram para não serem identificadas ao discutir deliberações privadas.

Leia também: Apple estabeleceu uma relação intrincada com a China. Agora será difícil desfazê-la

Se a Apple avançar com o plano, isso representaria uma reversão monumental. A empresa atualmente alimenta a maioria de seus recursos de IA com tecnologia própria que chama de Apple Foundation Models e havia planejado uma nova versão de seu assistente de voz rodando nessa tecnologia para 2026.

PUBLICIDADE

Uma mudança para os modelos Claude, da Anthropic, ou ChatGPT, da OpenAI, para a Siri seria um reconhecimento de que a empresa luta para competir em IA generativa — a nova tecnologia mais importante em décadas.

A Apple já permite que o ChatGPT responda consultas de busca baseadas na web na Siri, mas o próprio assistente é alimentado pela Apple.

Craig Federighi

O experimento da Apple sobre modelos de terceiros está em estágio inicial, e a empresa não tomou uma decisão final sobre usá-los, disseram as pessoas.

PUBLICIDADE

Um projeto concorrente internamente apelidado de LLM Siri que usa modelos internos permanece em desenvolvimento ativo.

Fazer uma mudança — que está sendo discutida para o próximo ano — poderia permitir que a Apple, baseada em Cupertino, na Califórnia, ofereça recursos da Siri equiparáveis aos assistentes de IA em telefones Android, ajudando a empresa a se livrar de sua reputação como atrasada em IA.

Representantes da Apple, da Anthropic e da OpenAI se recusaram a comentar. As ações da Apple fecharam em alta de mais de 2% após a Bloomberg News informar sobre as deliberações.

PUBLICIDADE

Dificuldades da Siri

O projeto para avaliar modelos externos foi iniciado pelo chefe da Siri, Mike Rockwell, e pelo chefe de engenharia de software, Craig Federighi.

Eles receberam a supervisão da Siri após as responsabilidades serem removidas do comando de John Giannandrea, o chefe de IA da empresa.

Ele foi tirado da posição após uma resposta morna ao Apple Intelligence e atrasos nos recursos da Siri.

Rockwell, que anteriormente lançou o headset Vision Pro, assumiu o papel de engenharia da Siri em março. Após assumir a tarefa, ele instruiu seu novo grupo a avaliar se a Siri faria um trabalho melhor lidando com consultas usando os modelos de IA da Apple ou tecnologia de terceiros, incluindo Claude, ChatGPT e Google Gemini, da Alphabet.

Após múltiplas rodadas de testes, Rockwell e outros executivos concluíram que a tecnologia da Anthropic é a mais promissora para as necessidades do Siri, disseram as pessoas.

Isso levou Adrian Perica, o vice-presidente de desenvolvimento corporativo da empresa, a iniciar discussões com a Anthropic sobre usar o Claude, disseram as pessoas.

O assistente Siri — originalmente lançado em 2011 — ficou para trás dos chatbots de IA populares, e as tentativas da Apple de atualizar o software foram prejudicadas por obstáculos de engenharia e atrasos.

Há um ano, a Apple revelou novas capacidades da Siri, incluindo algumas que permitiriam acessar dados pessoais dos usuários e analisar conteúdo na tela para melhor atender consultas.

A empresa também demonstrou tecnologia que permitiria à Siri controlar mais precisamente aplicativos e recursos em dispositivos Apple.

As melhorias estavam longe de estar prontas. A Apple inicialmente anunciou planos para um lançamento no início de 2025, mas finalmente atrasou o lançamento indefinidamente. Agora estão planejadas para o ano que vem, reportou a Bloomberg News.

Incerteza de IA

Pessoas com conhecimento da equipe de IA da Apple dizem que ela está operando com um alto grau de incerteza e falta de clareza, com executivos ainda estudando várias direções possíveis.

A Apple já aprovou um orçamento multibilionário para 2026 para rodar seus próprios modelos via nuvem, mas seus planos além disso permanecem obscuros.

Apple Intelligence

Ainda assim, Federighi, Rockwell e outros executivos se tornaram cada vez mais abertos à ideia de que abraçar tecnologia externa é a chave para uma reviravolta de curto prazo.

Eles não veem necessidade da Apple depender de seus próprios modelos — que atualmente consideram inferiores — quando pode fazer parcerias com terceiros, de acordo com as pessoas.

Licenciar IA de terceiros espelharia uma abordagem adotada pela Samsung Electronics. Embora a empresa marque seus recursos sob o guarda-chuva Galaxy AI, muitos de seus recursos são na verdade baseados no Gemini. A Anthropic, por sua vez, já é usada pela Amazon para ajudar a alimentar o novo Alexa+.

No futuro, se sua própria tecnologia melhorar, os executivos acreditam que a Apple deveria ter propriedade dos modelos de IA dada sua crescente importância para como os produtos operam.

A empresa trabalha em uma série de projetos, incluindo um robô de mesa e óculos que farão uso intenso de IA.

A Apple também considerou recentemente adquirir a Perplexity para ajudar a reforçar seu trabalho de IA, reportou a Bloomberg News.

Ela também manteve brevemente discussões com a Thinking Machines Lab, a startup de IA fundada pela ex-Diretora de Tecnologia da OpenAI, Mira Murati.

Moral em queda

Os modelos da Apple são desenvolvidos por uma equipe de aproximadamente 100 pessoas liderada por Ruoming Pang, um engenheiro distinto da Apple que veio do Google em 2021 para liderar este trabalho. Ele reporta para Daphne Luong, uma diretora sênior responsável pela pesquisa de IA.

Luong é uma das principais assessoras de Giannandrea, e a equipe de modelos fundamentais é um dos poucos grupos significativos de IA ainda reportando para Giannandrea. Mesmo nessa área, Federighi e Rockwell assumiram um papel maior.

Independentemente do caminho que tome, a mudança proposta pesou sobre a equipe, que tem alguns dos talentos mais procurados da indústria de IA.

Sam Altman, chief executive officer of OpenAI, left, and Eddy Cue, senior vice president of services at Apple.

Alguns membros sinalizaram internamente que estão infelizes com a empresa considerando tecnologia de terceiros, criando a percepção de que são culpados, pelo menos parcialmente, pelas deficiências de IA da empresa.

Eles disseram que poderiam sair por pacotes multimilionários sendo oferecidos pela Meta Platforms e pela OpenAI.

A Meta, proprietária do Facebook e Instagram, tem oferecido a alguns engenheiros pacotes de pagamento anual entre US$ 10 milhões e US$ 40 milhões — ou até mais — para se juntarem ao seu novo grupo Superintelligence Labs, de acordo com pessoas com conhecimento do assunto.

A Apple é conhecida, em muitos casos, por pagar a seus engenheiros de IA metade — ou até menos — do que podem conseguir no mercado aberto.

Um dos pesquisadores de grandes modelos de linguagem mais sênior da Apple, Tom Gunter, saiu na semana passada. Ele havia trabalhado na Apple por cerca de oito anos, e alguns colegas o veem como difícil de substituir dada sua habilidade única e a disposição dos concorrentes da Apple de pagar exponencialmente mais por talento.

A Apple neste mês também quase perdeu a equipe por trás do MLX, seu sistema de código aberto fundamental para desenvolver modelos de aprendizado de máquina nos chips Apple mais recentes.

Após os engenheiros ameaçarem sair, a Apple fez contraofertas para retê-los — e eles estão ficando por enquanto.

Discussões com Anthropic e OpenAI

Em suas discussões com a Anthropic e OpenAI, a fabricante do iPhone solicitou uma versão personalizada do Claude e do ChatGPT que pudesse rodar nos servidores Private Cloud Compute da Apple — infraestrutura baseada em chips Mac de alta qualidade que a empresa atualmente usa para operar seus modelos internos mais sofisticados.

A Apple acredita que rodar os modelos em seus próprios chips alojados em servidores de nuvem controlados pela Apple — em vez de depender de infraestrutura de terceiros — protegerá melhor a privacidade do usuário. A empresa já testou internamente a viabilidade da ideia.

Outros recursos do Apple Intelligence são alimentados por modelos de IA que residem nos dispositivos dos consumidores. Esses modelos — mais lentos e menos poderosos que versões baseadas em nuvem — são usados para tarefas como resumir emails curtos e criar Genmojis.

A Apple está abrindo os modelos no dispositivo para desenvolvedores terceiros ainda este ano, permitindo que criadores de aplicativos criem recursos de IA baseados em sua tecnologia.

A empresa não anunciou planos para dar acesso a aplicativos aos modelos de nuvem. Uma razão para isso é que os servidores de nuvem ainda não têm capacidade para lidar com uma enxurrada de novos recursos de terceiros.

A empresa não está atualmente trabalhando para se afastar de seus modelos internos para casos de uso no dispositivo ou para desenvolvedores.

Ainda assim, há receios entre engenheiros da equipe de modelos fundamentais de que mudar para terceiros para o Siri poderia pressagiar uma mudança para outros recursos também no futuro.

No ano passado, a OpenAI se ofereceu para treinar modelos no dispositivo para a Apple, mas a fabricante do iPhone não estava interessada.

Desde dezembro de 2024, a Apple tem usado a OpenAI para lidar com alguns recursos. Além de responder a consultas de conhecimento mundial no Siri, o ChatGPT pode escrever blocos de texto no recurso Writing Tools. Mais tarde este ano, no iOS 26, haverá uma opção ChatGPT para geração de imagens e análise de imagens na tela.

Ao discutir um possível acordo, a Apple e Anthropic discordaram sobre termos financeiros preliminares, de acordo com as pessoas. A startup de IA está buscando uma taxa anual multibilionária que aumenta drasticamente a cada ano.

A luta para chegar a um acordo deixou a Apple contemplando trabalhar com a OpenAI ou outras se avançar com o plano de terceiros, disseram.

Mudanças na Gestão

Se a Apple fechar um acordo, a influência de Giannandrea, que se juntou à Apple do Google em 2018 e é um defensor do desenvolvimento interno de grandes modelos de linguagem, continuaria a diminuir.

Além de perder o Siri, Giannandrea foi despojado da responsabilidade sobre a unidade de robótica da Apple. E, em movimentos não reportados anteriormente, as equipes Core ML e App Intents da empresa — grupos responsáveis por frameworks que permitem desenvolvedores integrar IA em seus aplicativos — foram transferidas para a organização de engenharia de software de Federighi.

A equipe de modelos fundamentais da Apple também estava construindo grandes modelos de linguagem para ajudar funcionários e desenvolvedores externos a escrever código no Xcode, seu software de programação. A empresa matou o projeto — anunciado no ano passado como Swift Assist — cerca de um mês atrás.

Em vez disso, a Apple mais tarde este ano está lançando um novo Xcode que pode acessar modelos de programação de terceiros. Desenvolvedores de aplicativos podem escolher entre ChatGPT ou Claude.

Veja mais em Bloomberg.com

Leia também

‘F1: O Filme’ lidera as bilheterias nos EUA e arrecada US$ 55,6 mi na estreia

Por que será um desafio para a parceria entre OpenAI e Jony Ive desbancar a Apple