OpenEXPO: Chema Alonso derin sahtekarlıklar ve siber güvenliğin yeni zorluklarından bahsediyor

OpenExpo'ya Chema Alonso

OpenEXPO Sanal Deneyim 2021 vardı olağanüstü bir sponsor, Chema Alonso gibi. Popüler güvenlik uzmanı ayrıca siber güvenlik ve derin sahtekarlıkların ve yapay zekanın onu nasıl etkileyebileceği gibi ilginç konular hakkında bir konferans verecekti.

Ve yapay zekadaki ilerlemeyle birlikte siber güvenlik yeni zorluklarla karşı karşıya. Halihazırda, bir kimlik, yapay zeka ile nispeten kolay bir şekilde ikame edilebilir ve bu da, derin sahteler sosyal ağları ve interneti sular altında bırakıyor.

Bir DeepFake, örneğin, mevcut bir videoyu bazı karakter ve yüzünü bir başkası için değiştir, ayrıca asla konuşmayacağı kelimeleri telaffuz eden klonlanmış bir ses eklemenin yanı sıra. Özellikle siyasi liderlere karşı kullanılırsa veya nüfusu etkileme konusunda büyük bir yeteneği varsa, korkunç aldatmacalara yol açabilecek bir şey.

Bugün, sahte haber ve dezenformasyon kampanyaları yaymak için en gelişmiş tekniklerden biri haline geldiler. Hatta önemli ölçüde etkileyebilirler siber saldırılarda artış, Chema Alonso'nun OpenEXPO Virtual Experience'dan işaret ettiği gibi.

Ve göründüğünden daha endişe verici bir kötülük. 2019 yılına kadar internette dolaşan 15.000'den az deepfake vardı. 2020'de öyleydi neredeyse 50.000 sahte video, bunların %96'sı pornografik niteliktedir. Ve sayı artmayı bırakmıyor, siber güvenlik için yeni zorluklar yaratıyor.

Bu derin sahtelerin tespiti için Chema Alonso, iki analiz şekli:

  • Adli analiz görüntülerin.
  • kaldırılması biyolojik veri resimlerden.

Tanınmış uzman, OpenEXPO Virtual Experience 2021 için yaptığı konuşmada bu konuyu ele aldı ve ekibiyle birlikte bir Chrome web tarayıcısı için eklenti herhangi bir kullanıcının bir video seçebileceği ve bu DeepFakes'leri tespit etmek için testler yapabileceği.

Bu eklenti 4 uygular bilimsel araştırma bu aldatmacalarla mücadele için:

  • Yüz Adli Bilişim ++: kendi veritabanında eğitilmiş bir modele dayalı kontroller.
  • Yüz Çarpma Artefaktlarını Algılayarak DeepFake Videolarını GöstermeMevcut AI algoritmaları genellikle sınırlı çözünürlükte görüntüler üretir ve bu araç bir CNN modeliyle bu sınırlamaları tespit eder.
  • Tutarsız Kafa Pozları Kullanarak Derin Sahtekarlıkları Ortaya Çıkarmak- Orijinal ve sentezlenmiş yüzler arasında bir takas yapılır, böylece kafanın 3 boyutlu pozunda hatalara neden olur. Bir HopeNet modeli ile bu tutarsızlıklar tespit edilebilir.
  • CNN Tarafından Oluşturulan Görüntülerin Fark Edilmesi Şaşırtıcı Derecede Kolay… şimdilik: CNN tarafından üretilen mevcut görüntülerin sistematik kusurları paylaştığı doğrulanabilir.

OpenEXPO incelemesi çok ilginç ve eşit derecede gerekli bir araç, bu derin sahtekarlıklar günün düzeni olduğundan ...

Daha fazla bilgi - Etkinliğin Resmi Web Sitesi


Yorumunuzu bırakın

E-posta hesabınız yayınlanmayacak. Gerekli alanlar ile işaretlenmiştir *

*

*

  1. Verilerden sorumlu: AB Internet Networks 2008 SL
  2. Verilerin amacı: Kontrol SPAM, yorum yönetimi.
  3. Meşruiyet: Onayınız
  4. Verilerin iletilmesi: Veriler, yasal zorunluluk dışında üçüncü kişilere iletilmeyecektir.
  5. Veri depolama: Occentus Networks (AB) tarafından barındırılan veritabanı
  6. Haklar: Bilgilerinizi istediğiniz zaman sınırlayabilir, kurtarabilir ve silebilirsiniz.