Wirtualne doświadczenie OpenEXPO 2021 miał wyjątkowy sponsor, podobnie jak Chema Alonso. Popularny ekspert ds. bezpieczeństwa zorganizowałby również konferencję na tak interesujące tematy, jak cyberbezpieczeństwo i jak mogą na nie wpływać deepfake i sztuczna inteligencja.
I właśnie dlatego, wraz z postępem sztucznej inteligencji, cyberbezpieczeństwo staje przed nowymi wyzwaniami. Obecnie tożsamość można stosunkowo łatwo zastąpić sztuczną inteligencją, powodując zjawisko deepfakes które zalewają sieci społecznościowe i Internet.
DeepFake pozwala na przykład na użycie istniejącego filmu z pewną postacią i zmień twarz na inną, a także wstawienie sklonowanego głosu, który wypowiada słowa, których nigdy by nie wypowiedział. Coś, co może prowadzić do strasznych oszustw, zwłaszcza jeśli zostanie użyte przeciwko przywódcom politycznym lub z wielką zdolnością wpływania na ludność.
Dziś stały się jedną z najbardziej wyrafinowanych technik rozpowszechniania fałszywych wiadomości i kampanii dezinformacyjnych. Mogą nawet znacząco wpłynąć wzrost cyberataków, jak wskazał Chema Alonso z OpenEXPO Virtual Experience.
I jest to zło bardziej niepokojące, niż się wydaje. Do 2019 roku w Internecie krążyło mniej niż 15.000 2020 deepfake'ów. W XNUMX roku było prawie 50.000 XNUMX fałszywych filmów, 96% z nich ma charakter pornograficzny. A liczba ta nie przestaje rosnąć, generując nowe wyzwania dla cyberbezpieczeństwa.
Aby wykryć te deepfake, Chema Alonso wskazuje na: dwie formy analizy:
- Analiza kryminalistyczna obrazów.
- Usunięcie dane biologiczne z obrazów.
Znany ekspert zgłębił ten temat w swoim wystąpieniu dla OpenEXPO Virtual Experience 2021 i wraz ze swoim zespołem był w stanie opracować wtyczka do przeglądarki internetowej Chrome za pomocą którego każdy użytkownik może wybrać wideo i przeprowadzić testy w celu wykrycia tych DeepFakes.
Ta wtyczka implementuje 4 badania naukowe za walkę z tymi oszustwami:
- FaceForensics ++: kontrole oparte na modelu wyszkolonym na własnej bazie danych.
- Odsłanianie filmów DeepFake poprzez wykrywanie artefaktów zniekształcających twarzObecne algorytmy AI często generują obrazy o ograniczonej rozdzielczości, a to narzędzie wykrywa te ograniczenia za pomocą modelu CNN.
- Odsłanianie głębokich podróbek przy użyciu niespójnych pozycji głowy- Dokonuje się zamiany twarzy oryginalnych i zsyntetyzowanych, co powoduje błędy w ułożeniu głowy w 3D. W modelu HopeNet te niespójności można wykryć.
- Obrazy generowane przez CNN są zaskakująco łatwe do zauważenia… na razie: Można potwierdzić, że obecne obrazy generowane przez CNN mają systematyczne wady.
Traktat OpenEXPO to bardzo ciekawy temat i równie potrzebne narzędzie, ponieważ te deepfake są na porządku dziennym ...
Więcej informacji - Oficjalna strona wydarzenia