Opinión - Bloomberg

Uso de deepfakes é novo risco real em reuniões online, mas é possível se proteger

Golpistas usaram IA em uma videoconferência para roubar US$ 25 milhões em Hong Kong, o que evidencia a necessidade de estratégias de segurança em encontros virtuais

A poster at the World Economic Forum (WEF) in Davos. Photographer: Hollie Adams/Bloomberg
Tempo de leitura: 4 minutos

Bloomberg Opinion — O chefe que está lhe dando uma ordem é real ou apenas parece real? Os deepfakes estão levando as reuniões no Zoom a outro nível, fazendo-nos questionar se nossos colegas de trabalho são verdadeiros.

Um funcionário do setor financeiro em Hong Kong transferiu mais de US$ 25 milhões para golpistas depois que eles se passaram por seu diretor financeiro e outros colegas em uma chamada de videoconferência, talvez na maior fraude corporativa que usou a tecnologia deepfake até o momento.

O funcionário suspeitou de um e-mail que solicitou uma transação secreta, mas os golpistas pareceram tão convincentes na chamada virtual posterior que ele enviou o dinheiro.

LEIA +
Do Excel à IA: como a inteligência artificial pretende transformar os deals de M&A

Os gerentes de TI passaram mais de uma década tentando, muitas vezes sem sucesso, treinar os funcionários para identificar e-mails de phishing e resistir ao impulso de clicar em anexos duvidosos. Muitas vezes, hackers e golpistas precisam de apenas uma pessoa entre centenas para baixar o malware necessário para entrar em uma rede corporativa.

PUBLICIDADE

Com as ferramentas de vídeo integrando tecnologia de inteligência artificial (IA), eles estão entrando em um território que consideramos seguro, o que ressalta a rapidez com que a tecnologia deepfake se desenvolveu apenas no último ano.

Embora pareça ficção científica, essas fraudes elaboradas agora são relativamente fáceis de configurar, o que nos leva a uma nova era de ceticismo.

A fraude em Hong Kong quase certamente usou deepfakes em tempo real, o que significa que o executivo falso espelhou o golpista enquanto ouvia, falava e acenava com a cabeça durante a reunião.

PUBLICIDADE

De acordo com David Maimon, professor de criminologia da Universidade Estadual da Geórgia, os golpistas usam deepfakes em tempo real em videochamadas desde pelo menos 2023 para cometer fraudes de menor escala.

Esse é um território desconhecido para a maioria de nós, mas a vítima de Hong Kong poderia ter tomado medidas para identificar o deepfake – e todos nós precisaremos tomá-las no futuro em videoconferências confidenciais:

Use pistas visuais para verificar com quem está falando:

Os deepfakes ainda não conseguem fazer movimentos complexos em tempo real, portanto, em caso de dúvida, peça ao seu colega de videoconferência para escrever uma palavra ou frase em um pedaço de papel e mostrá-la na câmera. Você pode pedir que ele pegue um livro próximo ou faça um gesto único, como tocar a orelha ou acenar com a mão, o que pode ser difícil para os deepfakes replicarem de forma convincente em tempo real.

PUBLICIDADE

Observe a boca:

Fique atento a discrepâncias na sincronização labial ou a expressões faciais estranhas que vão além de uma falha de conexão.

Utilize autenticação multifator:

PUBLICIDADE

Para reuniões confidenciais, considere ter uma segunda conversa por e-mail, SMS ou usando um aplicativo autenticador, para garantir que os participantes sejam quem dizem ser.

Use outros canais seguros:

Para reuniões críticas que envolverão informações confidenciais ou transações financeiras, você e os outros participantes da reunião podem verificar suas identidades por meio de um aplicativo de mensagens criptografadas, como o Signal, ou confirmar decisões, como transações financeiras, por meio desses mesmos canais.

Atualize seu software:

Verifique se você está usando a versão mais recente do seu software de videoconferência, caso ele incorpore recursos de segurança para detectar deepfakes.

Evite plataformas de videoconferência desconhecidas:

Especialmente para reuniões confidenciais, use plataformas conhecidas, como Zoom ou Google Meet, que possuem medidas de segurança relativamente fortes.

Fique atento a comportamentos e atividades suspeito:

Desconfie de pedidos urgentes de dinheiro, reuniões de última hora que envolvam grandes decisões ou mudanças no tom, na linguagem ou no estilo de falar de uma pessoa. Os golpistas costumam usar táticas de pressão, portanto, cuidado também com qualquer tentativa de apressar uma decisão.

Algumas dessas dicas podem ficar desatualizadas com o tempo, principalmente às relacionadas ao visual. Em 2023, era possível identificar um deepfake pedindo ao interlocutor que se virasse de lado para vê-lo de perfil. Agora, alguns deepfakes podem mover a cabeça de forma convincente.

LEIA +
Com inteligência artificial na moda, a carreira de modelo ficará para trás?

Durante anos, golpistas invadiram os computadores de pessoas ricas e coletaram suas informações pessoais para ajudá-los a passar pela segurança dos bancos.

Mas, pelo menos no setor bancário, os gerentes podem criar novos processos para forçar seus subordinados a reforçar a segurança. O mundo corporativo tem várias abordagens diferentes para a segurança que permitem que os criminosos simplesmente diversifiquem seus ataques o suficiente para encontrar vulnerabilidades.

Quanto mais as pessoas se conscientizarem da possibilidade de um golpe, menor será a chance dos golpistas, mesmo que as videochamadas fiquem mais desconfortáveis ao envolver mais verificações de segurança.

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Parmy Olson é colunista da Bloomberg Opinion e escreve sobre tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous”.

Veja mais em Bloomberg.com

Leia também

Intel planeja produzir chips sob encomenda voltados para a inteligência artificial

Gen Z e millennials, atenção: sua vida financeira pode não ser tão ruim como parece