Deep Fake: nem sempre acredite no que você vê ou ouve…

Cezar Taurion
4 min readDec 1, 2021

Viram a foto? Pois é, não são originais. Foram criadas sinteticamente com tecnologia de IA. Pois é. Nem sempre acredite no que você vê e ouve…À medida que a sociedade se digitaliza, aumentam as oportunidades e as chances de ataques cibernéticos. Com a crescente adoção de código open source, computação em nuvem e algoritmos de IA, o ferramental à disposição dos cibercriminosos aumenta exponencialmente.

Um sintoma é o crescente aparecimento de ataques baseados no que conhecemos como “Deep Fakes”, que é o uso de algoritmos de IA para criar simulações falsas de pessoas, como mensagens de áudio e vídeos. Sim, vídeos realistas de pessoas fazendo coisas que nunca aconteceram se tornam surpreendentemente fáceis de criar. Leiam o artigo “Anyone with an iPhone can now make deepfakes. We aren’t ready for what happens next.” , para uma ideia do que já é possível fazer com um simples smartphone.

Algumas estimativas apontam que o número de vídeos fake foi multiplicado por dez de 2019 para 2020. E, também se estima que, o custo para produzir um Deep Fake “state-of-the-art” é inferior a US $ 30.000, facilitando em muito a sua criação. Isso, obviamente, chama atenção e aumenta a preocupação de que essa tecnologia se torne cada vez mais fonte de desinformação, fraude e extorsão. Alguns estudos apontam a gravidade potencial da situação. Recomendo a leitura do estudo “Deepfakes: A Grounded Threat Assessment”, publicado pelo CSET (Center for Security and Emerging Technology) da Georgetown University, nos EUA. São cerca de 50 páginas que descrevem o que são Deep Fakes, como são criados e os riscos potenciais de seu uso criminoso.

Recentemente veio a público um caso de roubo praticado com técnicas de Deep Fake. Um grupo de cibercriminosos nos Emirados Árabes Unidos usou a tecnologia como parte de um roubo a um banco, que transferiu um total de US $ 35 milhões para fora do país, distribuído em diversas contas espalhadas por todo o mundo.

O processo foi simples. Basicamente, usou-se algoritmos de ML para fazer uma versão falsa da voz de um cliente do banco. Nesse caso, os criminosos usaram um algoritmo para recriar a voz de um executivo de uma grande empresa. Em seguida, ligaram para um gerente de banco que era um dos responsáveis pelo relacionamento com o executivo e que, portanto, conhecia sua voz. Os falsificadores também enviaram e-mails falsos a esse gerente, confirmando os detalhes das transações solicitadas. Entre os e-mails e a voz familiar, quando o executivo pediu ao gerente que autorizasse a transferência de milhões de dólares entre algumas contas, o gerente não viu nenhum problema e seguiu em frente, fazendo o que foi solicitado. A fraude ocorreu em janeiro de 2020, e as autoridades dos Emirados Árabes Unidos estão agora pedindo ajuda à investigadores nos EUA para rastrear US$ 400.000 do dinheiro roubado que foi para contas bancárias americanas.

Esse assalto não foi o primeiro a usar a tecnologia, mas foi a primeira vez que se conseguiu roubar uma grande quantia de dinheiro usando uma voz falsa. Em 2019, um grupo de criminosos falsificou a voz do CEO de uma empresa de energia sediada no Reino Unido para transferir US $ 243.000 para uma conta bancária na Hungria.

É um exemplo real que talvez prolifere com o tempo, com mais e mais algoritmos sendo disponibilizados. Como acontece com qualquer sistema de aprendizado de máquina, seu resultado melhora com base na quantidade e qualidade de seus dados de entrada, uma voz falsa soará mais como a real se houver um volume adequado de gravações para o sistema “aprender”. Por isso, é bem provável que um dos seus maiores usos será falsificar voz e atos de personalidades públicas, como artistas e políticos, que deixam uma pegada digital imensa.

Muitas versões de software Deep Fake de áudio já estão disponíveis comercialmente, como o Lyrebird, que precisa de apenas uma gravação de um minuto para criar uma voz sintética, embora ainda reconhecível como falsa. Claro que esses sistemas não foram criados com objetivos escusos, mas para uso positivo como pessoas com deficiência de fala os usarem para se comunicar com outras as pessoas. Existem diversos outros usos positivos, como permitir a artistas licenciarem suas vozes para propagandas de produtos ou gravar audiolivros ou podcasts. A Sonantic recentemente criou um clone de voz para Val Kilmer, cuja voz foi danificada na sua batalha contra o câncer na garganta. O vídeo com a voz do ator gerada pelo sistema pode ser visto em https://www.youtube.com/watch?v=OSMue60Gg6s .

Com a possibilidade de usarmos provedores de nuvem para aprimorar os algoritmos com custos de processamento baixos e imaginarmos que a evolução tecnológica avança a passos cada vez mais rápidos, os vídeos que vemos hoje, que ainda são detectáveis como falsos à olho nu, talvez em poucos anos só sejam detectados por outro algoritmo de IA. Já vemos algumas iniciativas nesse sentido, como o Video Authenticator da Microsoft. Entretanto, a guerra contra o cibercrime não é fácil. Pesquisadores já mostraram que os algoritmos que detectam Deep Fakes também podem ser enganados. O paper “Deepfake detectors can be defeated, computer scientists show for the first time” descreve esse cenário.

Combater a tecnologia com mais ou melhor tecnologia pode ser uma de nossas melhores alternativas, mas também é importante aumentar a conscientização sobre Deep Fakes e incutir na sociedade um amplo senso de análise crítica em relação ao conteúdo que veem online. Na nossa sociedade cada vez mais digitalizada, onde o que puder ser automatizado, o será, ter fluência digital e conhecimento do que é IA e o que são algoritmos já se torna tão importante quanto saber ler e escrever.

--

--