Deepfakes de IA estão melhorando na falsificação da verificação KYC, diz executivo da Binance

A tecnologia está ficando tão avançada que os deepfakes podem em breve se tornar indetectáveis por um verificador humano, disse Jimmy Su, diretor de segurança da Binance.

A tecnologia de deepfake usada por fraudadores de criptomoedas para burlar a verificação de Conheça o Seu Cliente (KYC) em exchanges de criptomoedas como a Binance só vai se tornar mais avançada, advertiu o diretor de segurança da Binance.

Deepfakes são feitos usando ferramentas de inteligência artificial que usam aprendizado de máquina para criar áudio, imagens ou vídeos convincentes apresentando a semelhança de uma pessoa. Embora existam usos legítimos para a tecnologia, ela também pode ser usada para golpes e fraudes.

A IA de deepfake representa uma séria ameaça à humanidade, e não é mais apenas uma ideia absurda. Recentemente me deparei com um vídeo apresentando um deepfake de @cz_binance , e é assustadoramente convincente. pic.twitter.com/BRCN7KaDgq

– DigitalMicropreneur.eth (@rbkasr) 24 de fevereiro de 2023

Falando ao Cointelegraph, o Diretor de Segurança da Binance, Jimmy Su, disse que houve um aumento de fraudadores usando a tecnologia para tentar burlar os processos de verificação de clientes da exchange.

 

“O hacker procurará uma foto normal da vítima online. Com base nisso, usando ferramentas de deepfake, eles são capazes de produzir vídeos para fazer a burla.”

Su disse que as ferramentas se tornaram tão avançadas que podem até mesmo responder corretamente a instruções de áudio projetadas para verificar se o requerente é humano e podem fazer isso em tempo real.

“Algumas das verificações exigem que o usuário, por exemplo, pisque o olho esquerdo ou olhe para a esquerda ou para a direita, olhe para cima ou para baixo. Os deepfakes são avançados o suficiente hoje em dia que eles podem realmente executar esses comandos”, explicou.

No entanto, Su acredita que os vídeos falsificados ainda não estão no nível em que podem enganar um operador humano.

“Quando olhamos para esses vídeos, há certas partes que podemos detectar com o olho humano”, por exemplo, quando o usuário é obrigado a virar a cabeça para o lado, disse Su.

“A IA vai superar [eles] com o tempo. Então, não é algo em que podemos sempre confiar.”

Em agosto de 2022, o diretor de comunicações da Binance, Patrick Hillmann, alertou que uma “equipe de hackers sofisticada” estava usando suas entrevistas e aparições na TV para criar uma versão “deepfake” dele.

A versão deepfake de Hillmann foi então implantada para conduzir reuniões no Zoom com várias equipes de projetos de criptomoedas, prometendo uma oportunidade de listar seus ativos na Binance – por um preço, é claro.

Hackers criaram um “deepfake” de mim e conseguiram enganar vários projetos de criptomoedas desavisados. Projetos de criptomoedas estão praticamente sob ataque constante de cibercriminosos. É por isso que pedimos a maioria dos funcionários da @binance para permanecerem anônimos no LinkedIn. https://t.co/tScNg4Qpkx

— Patrick Hillmann (@PRHillmann) 17 de agosto de 2022

“Esse é um problema muito difícil de resolver”, disse Su, quando perguntado sobre como combater tais ataques.

“Mesmo que possamos controlar nossos próprios vídeos, existem vídeos por aí que não são de nossa propriedade. Então, uma coisa, novamente, é a educação do usuário.”

A Binance planeja lançar uma série de postagens em blog destinadas a educar os usuários sobre gerenciamento de riscos.

Em uma versão inicial do post do blog com uma seção sobre cibersegurança, a Binance disse que usa algoritmos de IA e aprendizado de máquina para seus próprios propósitos, incluindo a detecção de padrões de login e transação incomuns e outras “atividades anormais na plataforma”.

VEJA MAIS:

Você pode gostar...