Um funcionário do departamento financeiro de uma multinacional em Hong Kong transferiu mais de US$ 25 milhões para golpistas após ser enganado por uma deepfake de seu chefe durante uma videoconferência falsa. A fraude, ocorrida em janeiro, foi divulgada pelas autoridades locais no domingo (4).
De acordo com a polícia de Hong Kong, o colaborador foi convidado a participar de uma reunião online na qual estariam, supostamente, o líder do setor financeiro (CFO) da companhia e outros colegas de trabalho. No entanto, o homem era a única pessoa real no chat — os demais participantes foram gerados por inteligência artificial.
Durante a conversa, o suposto CFO solicitou ao trabalhador que fizesse 15 transferências para cinco contas bancárias, totalizando mais de R$ 125 milhões pela cotação do dia. Inicialmente desconfiado, ele se convenceu de que estava interagindo com o chefe após outras “pessoas” entrarem na reunião virtual.
O funcionário só percebeu que havia sido alvo de golpistas após contatar a sede da corporação. Nomes e outras informações da empresa e da vítima envolvida no primeiro golpe de videoconferência deepfake em Hong Kong não foram divulgados.
Conforme investigação do caso, os autores da fraude teriam tido acesso a vídeos reais de videoconferências anteriores da empresa e, em seguida, utilizaram ferramentas de IA para adicionar vozes falsas às pessoas que aparecem nas imagens, com o intuito de enganar a vítima.
As autoridades alertaram que esse tipo de golpe tem crescido em Hong Kong, onde seis suspeitos de usar a tecnologia em atividades criminosas foram presos nas últimas semanas. Além disso, foram registradas pelo menos 20 tentativas de uso de deepfakes para enganar softwares de reconhecimento facial na região.
Verificar informações junto aos canais oficiais de comunicação da empresa é uma das medidas para evitar cair no golpe da videoconferência de deepfake, como destacou a polícia local. Além disso, é válido fazer perguntas para confirmar se as pessoas que estão participando de reuniões online suspeitas são reais.
Recentemente, a cantora Taylor Swift foi alvo de cibercriminosos que usaram a tecnologia para criar imagens pornográficas geradas por IA com a aparência da estrela pop. Em resposta, senadores americanos apresentaram um projeto de lei para facilitar que as vítimas de campanhas como esta processem os autores.
Fonte: Tecmundo