Experiência Virtual OpenEXPO 2021 teve um patrocinador excepcional, assim como Chema Alonso. O popular especialista em segurança também daria uma conferência sobre tópicos interessantes como segurança cibernética e como os deepfakes e a IA podem influenciá-los.
E é que, com o avanço da inteligência artificial, a segurança cibernética enfrenta novos desafios. Atualmente, uma identidade pode ser suplantada de forma relativamente fácil com IA, dando origem ao fenômeno de os deepfakes que inundam as redes sociais e a Internet.
Um DeepFake permite, por exemplo, usar um vídeo existente com algum personagem e mude seu rosto por outro, bem como inserir uma voz clonada que está pronunciando palavras que nunca teria falado. Algo que pode levar a terríveis boatos, especialmente se usado contra líderes políticos ou com grande capacidade de influenciar a população.
Hoje, eles se tornaram uma das técnicas mais sofisticadas de divulgação de notícias falsas e campanhas de desinformação. Eles podem até influenciar significativamente o aumento de ataques cibernéticos, como Chema Alonso apontou em OpenEXPO Virtual Experience.
E é um mal mais preocupante do que parece. Até 2019, havia menos de 15.000 deepfakes circulando na Internet. Em 2020 era quase 50.000 vídeos falsos, 96% deles de natureza pornográfica. E o número não para de crescer, gerando novos desafios para a segurança cibernética.
Para a detecção desses deepfakes, Chema Alonso aponta para duas formas de análise:
- Análise forense das imagens.
- Remoção do dados biológicos a partir de imagens.
O renomado especialista se aprofundou neste tópico em sua palestra para a OpenEXPO Virtual Experience 2021 e, junto com sua equipe, foi capaz de desenvolver plug-in para o navegador Chrome com o qual qualquer usuário pode selecionar um vídeo e executar testes para detectar esses DeepFakes.
Este plugin implementa 4 pesquisa científica para lutar com esses enganos:
- FaceForensics ++: verifica com base em um modelo treinado em seu próprio banco de dados.
- Exposição de vídeos DeepFake detectando artefatos de distorção facialOs algoritmos de IA atuais geralmente geram imagens de resolução limitada e esta ferramenta detecta essas limitações com um modelo CNN.
- Expondo falsificações profundas usando poses de cabeça inconsistentes- É feita uma troca entre as faces original e sintetizada, de forma que causa erros na pose da cabeça em 3D. Com um modelo HopeNet, essas inconsistências podem ser detectadas.
- Imagens geradas pela CNN são surpreendentemente fáceis de detectar ... por enquanto: Pode-se confirmar que as imagens atuais geradas pela CNN compartilham falhas sistemáticas.
O tratado OpenEXPO é um tópico muito interessante e uma ferramenta igualmente necessária, uma vez que esses deepfakes são a ordem do dia ...
Mais informação - Site Oficial do Evento