Bloomberg Opinion — O mundo pré-inteligência artificial (IA) acabou.
Estimativas sugerem que, atualmente, uma em cada oito crianças conhece pessoalmente alguém que foi alvo de uma foto ou vídeo deepfake, com números subindo para uma em cada quatro que já viu um deepfake sexualizado de alguém que reconhece, seja um amigo ou uma celebridade. Esse é um problema real, e os legisladores estão de repente acordando para ele.
Na década de 1980, quando eu era criança, era a foto de uma criança desaparecida em uma caixa de leite que resumia os medos dos pais. Em 2026, é uma imagem sugestiva de um ente querido gerada por IA.
A crescente disponibilidade de ferramentas de nudez geradas por IA, como as associadas ao Grok, IA do X, alimentou o aumento vertiginoso de denúncias de material de abuso sexual infantil gerado por IA — de aproximadamente 4.700 em 2023 para mais de 440 mil somente no primeiro semestre de 2025, de acordo com o Centro Nacional para Crianças Desaparecidas e Exploradas.
Isso é horrível e repugnante. É particularmente difícil ler (e escrever) sobre isso como mãe, porque a capacidade de proteger seu filho disso parece estar muito além do seu controle.
Os pais já lutam apenas para manter os filhos longe das redes sociais, tirar as telas das salas de aula ou trancar os dispositivos domésticos à noite. E isso depois de uma década de dados sobre o impacto das redes sociais nas crianças.
Leia também: Fim do ‘almoço grátis’ (de vez): OpenAI começa a testar anúncios no ChatGPT
Antes mesmo de resolvermos esse problema, a IA está conquistando o mundo — principalmente entre os jovens.
Quase metade (42%) dos adolescentes americanos relatam conversar com chatbots de IA como se fossem amigos ou companheiros. A grande maioria dos estudantes (86%) relata usar IA durante o ano letivo, de acordo com a Education Week.
Até mesmo crianças de 5 a 12 anos estão usando IA generativa. Em vários casos de grande repercussão, os pais afirmam que os chatbots de IA incentivaram seus filhos adolescentes a cometer suicídio.
Muitos pais estão por fora dessa questão.
Uma pesquisa da Common Sense Media mostra que os pais subestimam consistentemente o uso da IA por seus filhos. As escolas também. A mesma pesquisa descobriu que poucas escolas comunicaram — ou mesmo desenvolveram — uma política de IA.
Mas há um sentimento comum de apreensão: os americanos continuam muito mais preocupados (50%) do que entusiasmados (10%) com o aumento do uso da IA na vida cotidiana, e a grande maioria acredita ter pouca ou nenhuma capacidade de controlá-la (87%).
Os formuladores de políticas estão em ação. Na terça-feira (13), o Senado aprovou por unanimidade um projeto de lei, o Defiance Act, para permitir que vítimas de pornografia deepfake processem as pessoas que criaram as imagens.
O Reino Unido e a União Europeia estão investigando se o Grok foi usado para gerar imagens deepfake sexualmente explícitas de mulheres e crianças sem o consentimento delas, violando a Online Safety Act.
Nos Estados Unidos, a Take It Down Act, sancionada pelo Congresso no ano passado, criminalizou deepfakes sexuais e exige que as plataformas removam as imagens em até 48 horas; quem compartilhar essas imagens pode pegar pena de prisão.
No meu estado natal, o Texas, temos algumas das leis de IA mais agressivas do país. A Lei Securing Children Online through Parental Empowerment (SCOPE) de 2024, entre outras coisas, exige que as plataformas implementem uma estratégia para impedir que menores sejam expostos a “material prejudicial”.
Leia também: IA além da Nvidia: onde investir para ‘driblar’ o risco de bolha, segundo o BofA
Desde 1º de setembro de 2025, é ilegal criar ou distribuir imagens sexualmente sugestivas sem consentimento.
As punições variam de acusações criminais e prisão a multas recorrentes. E a partir deste ano, a Texas Responsible AI Governance Act (TRAIGA) entra em vigor, proibindo o desenvolvimento de IA com o único objetivo de criar deepfakes.
O Texas pode não ser conhecido por seu bipartidarismo, mas esses esforços foram promovidos de maneira bipartidária e enquadrados (corretamente) como proteção às crianças e aos direitos dos pais no Texas.
“Na era digital de hoje, devemos continuar lutando para proteger as crianças do Texas contra tecnologias enganosas e exploradoras”, disse o procurador-geral Ken Paxton, ao anunciar sua investigação sobre o Meta AI Studio e o Character.AI.
Mas ainda não sabemos se essas leis serão eficazes. Por um lado, tudo isso ainda é muito novo. Por outro, a tecnologia continua mudando.
E não ajuda o fato de os criadores da IA terem uma relação próxima com Washington.
As big techs são os figurões em Washington atualmente; o lobby cresceu significativamente. Mais perto de casa, os democratas do Texas estão preocupados que Paxton possa não pressionar Musk sobre o desastre da Grok, dadas as fortes conexões do bilionário com o Partido Republicano.
Sob o governo Trump, a Comissão Federal de Comércio lançou uma investigação formal sobre as grandes empresas de tecnologia, pedindo que elas detalhassem como testam e monitoram os possíveis impactos negativos dos chatbots nas crianças.
Mas isso é essencialmente uma auto-divulgação; essas mesmas empresas não inspiraram exatamente confiança nesse aspecto com as mídias sociais ou, no caso do Grok, com deepfakes de crianças nuas.
É necessária mais responsabilidade externa. Para isso, é necessária uma abordagem multifacetada. Gostaria de ver o Departamento de Saúde e Serviços Humanos incorporar o desafio da IA para o bem-estar das crianças como parte do movimento MAHA (“Torne os EUA saudáveis novamente”, em tradução livre). Uma comissão bipartidária poderia explorar os limites de idade da IA, as políticas escolares e as habilidades relacionais das crianças.
Leia também: IA deu impulso a ações na volta de Trump, mas ganho fica aquém do histórico
Mas mesmo com ações federais e estaduais, a realidade é que grande parte do mundo da IA será navegado pelos próprios pais. Embora existam medidas que possam limitar a exposição das crianças à IA em idades mais jovens, evitar não é a resposta.
Estamos apenas no início, e a tecnologia de IA já é inevitável. Ela está em nossos computadores, casas, escolas, brinquedos e trabalho, e a era da IA está apenas começando.
É necessário mais suporte. O trabalho profundo caberá aos pais. Os pais sempre precisaram criar filhos com personalidade forte, resistência e virtudes morais. As dificuldades de cada época mudam, mas isso não muda.
Agora, precisaremos criar filhos que tenham senso de propósito, capacidade de pensamento crítico e conhecimento relacional para conviver com essa tecnologia nova e já onipresente — com suas grandes promessas e perigos.
É realmente um admirável mundo novo.
Esta coluna reflete as opiniões pessoais do autor e não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Parmy Olson é colunista da Bloomberg Opinion e escreve sobre tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous.”
Veja mais em Bloomberg.com
Leia também
Não queremos ser banco de elite. E, sim, passar excelência, diz CMO do BTG Pactual
Alternativa a Congonhas? JHSF quer aval para voos comerciais no Catarina, em São Roque
Felipe Miranda deixa a Empiricus após 16 anos e sai do partnership do BTG Pactual
© 2026 Bloomberg L.P.



