Bloomberg — Há um ano, Andrew Lo pediu ao ChatGPT sua opinião sobre a Moderna (MRNA), uma ação de biotecnologia que disparou durante a pandemia. O conselho: vender. Ele não o fez. A ação despencou.
Agora, Lo, professor de finanças do Massachusetts Institute of Technology (MIT) e um dos principais especialistas em IA, acredita que o mesmo tipo de tecnologia que acertou em cheio na decisão sobre ações poderá em breve fazer muito mais. Não apenas dar conselhos, mas gerenciar dinheiro, equilibrar riscos, adaptar estratégias – e cumprir um dos mais altos deveres das finanças: agir no melhor interesse do cliente.
Ele prevê que, dentro de cinco anos, os grandes modelos de linguagem (LLMs, na sigla em inglês) terão a capacidade técnica de tomar decisões reais de investimento em nome dos clientes.
Lo, de 65 anos, há muito fez a ponte entre os mundos das finanças e da tecnologia. Ele foi cofundador da QLS Advisors, uma empresa que aplica machine learning ao setor de saúde e à gestão de ativos, e ajudou a ser pioneiro no investimento quantitativo quando ele ainda era visto como algo marginal. Ele acredita que a IA generativa, apesar de suas falhas, está se aproximando rapidamente da capacidade de analisar dinâmicas complexas de mercado, avaliar riscos de longo prazo e conquistar o tipo de confiança normalmente reservada aos consultores humanos.
Leia mais: IA chega à assessoria de investimentos de olho na Geração Z. Os riscos também
“Isso pode ocorrer na forma de agentes de IA, o que significa que teremos agentes que trabalham em nosso nome e tomam decisões em nosso nome de forma automatizada”, disse Lo em uma entrevista à Bloomberg News. “Acredito que, nos próximos cinco anos, veremos uma revolução na forma como os humanos interagem com a IA.”
A ideia ainda parece radical em Wall Street, onde as ferramentas do tipo ChatGPT estão limitadas, em sua maioria, a trabalhos de nível júnior, como coleta e análise de dados. No entanto, a visão de Lo vai além disso: sob as proteções regulatórias corretas, a IA poderia evoluir de um pesquisador esforçado, mas rígido, para atender a uma das mais altas exigências do setor financeiro: o padrão fiduciário.
Os órgãos reguladores dos EUA estão cada vez mais preocupados com os riscos da IA no setor de serviços financeiros. Em 2023, a Comissão de Valores Mobiliários propôs uma regra que exige que os corretores e consultores financeiros que usam IA ou análise preditiva “eliminem ou neutralizem” o efeito de quaisquer conflitos de interesse.
Para Lo, o desafio não é apenas técnico. Trata-se de confiabilidade na tomada de decisões de alto risco. Um modelo que ocasionalmente tem alucinações pode ser treinado para operar com a consistência e a transparência que o mundo financeiro exige?
Ferramentas diferentes “surgirão eventualmente para que se possa entender como confiar nos LLMs em determinados contextos e como não confiar neles em outros contextos”, disse ele. “O setor de serviços financeiros tem camadas extras de proteção que precisam ser construídas antes que essas ferramentas possam ser úteis. Acho que isso vai acontecer.”
Lo, que já foi nomeado pela revista Time como uma das 100 pessoas mais influentes do mundo, fundou a empresa de investimentos quânticos Alphasimplex antes de sair. No ano passado, ele foi coautor de um artigo intitulado Generative AI from Theory to Practice: A Case Study of Financial Advice (“IA generativa da teoria à prática: um estudo de caso de consultoria financeira”, em tradução livre).
Ele acredita que a próxima geração de IA precisará fazer mais do que analisar mercados. Ela terá que entender as pessoas – emocional e socialmente – para criar o tipo de confiança duradoura que é essencial para o trabalho de consultoria.
A ideia de a IA escolher ações não é nova. Um ETF acionado por chatbot foi lançado no ano passado com a promessa de aproveitar a capacidade intelectual das mentes mais ilustres do mundo dos investimentos, como Warren Buffett. Os consultores robôs da Fidelity e da Charles Schwab ajudam a construir e reequilibrar portfólios adaptados às metas individuais e ao apetite por risco.
Leia mais: Investidor que ‘antecipou’ quebra histórica nos EUA agora alerta para hype com IA
Mas esses sistemas são rígidos. Lo busca algo mais adaptável. Ele imagina um modelo capaz não apenas de produzir resultados, mas de absorver feedback e aprender a se relacionar com clientes humanos – um agente de IA com responsabilidade fiduciária.
É também por isso que Lo defende a cautela. Wall Street, argumenta ele, está certa em agir com cuidado com o que pode ser a ferramenta financeira mais revolucionária das últimas décadas. Ele aponta para a queda de 2012 do Knight Capital Group, quando um erro de software provocou uma grande perda comercial com consequências existenciais.
Ainda assim, ele acredita na colaboração homem-máquina. Os seres humanos trazem intuição, experiência e relacionamentos. As máquinas trazem velocidade, memória e reconhecimento de padrões. Juntos, diz ele, eles poderiam criar estratégias financeiras que nenhum deles poderia gerar sozinho.
Se isso parece ambicioso, é apenas o começo. Os futuros sistemas de IA serão capazes de fazer muito mais do que superar os humanos na escolha de ações. Eles poderiam redefinir a forma como a confiança, o risco e a responsabilidade são codificados na tomada de decisões financeiras.
“Estamos no momento em que os grandes modelos de linguagem podem se orgulhar de nós”, disse Lo. “E isso é ao mesmo tempo estimulante e assustador.”
Veja mais em Bloomberg.com
Leia também
Próximo Neymar? Plataforma identifica talentos no Brasil com uso de IA em vídeos
Nubank prepara novo salto para engajar cliente para além do serviço financeiro
Como Milei impulsionou mercados de imóveis e carros, mas esfriou o consumo popular
© 2025 Bloomberg L.P.