Виртуален опит на OpenEXPO 2021 г. разчита на изключителен спонсор, както е Chema Alonso. Популярният експерт по сигурността също би изнесъл конференция по такива интересни теми като киберсигурността и как deepfakes и AI могат да й повлияят.
И то е, че с напредването на изкуствения интелект киберсигурността е изправена пред нови предизвикателства. Понастоящем една идентичност може да бъде заменена сравнително лесно с AI, което поражда явлението дълбоките фалшификати които заливат социалните мрежи и Интернет.
DeepFake позволява, например, да се използва съществуващо видео с някакъв знак и сменете лицето си за друго, както и вмъкване на клониран глас, който говори думи, които никога не би изговорил. Нещо, което може да доведе до ужасни измислици, особено ако се използва срещу политически лидери или с голяма способност да влияе на населението.
Днес те се превърнаха в една от най-сложните техники за разпространение на фалшиви новини и кампании за дезинформация. Те дори могат значително да повлияят увеличаването на кибератаките, както Chema Alonso посочи от OpenEXPO Virtual Experience.
И това е по-тревожно зло, отколкото изглежда. До 2019 г. в Интернет имаше по-малко от 15.000 2020 фалшиви фалшификати. През XNUMX г. беше почти 50.000 XNUMX фалшиви видеоклипа, 96% от тях с порнографски характер. И броят не спира да расте, пораждайки нови предизвикателства за киберсигурността.
За откриването на тези фалшиви фалшификати Chema Alonso посочва две форми на анализ:
- Съдебен анализ на изображенията.
- Премахване на биологични данни от изображения.
Известният експерт се задълбочи в тази тема в речта си за OpenEXPO Virtual Experience 2021 и заедно със своя екип успя да разработи приставка за уеб браузъра Chrome с който всеки потребител може да избере видео и да изпълни тестове за откриване на тези DeepFakes.
Този плъгин изпълнява 4 научно изследване за борбата с тези измами:
- FaceForensics ++: проверки въз основа на модел, обучен на собствена база данни.
- Разкриване на DeepFake видеоклипове чрез откриване на артефакти за изкривяване на лицетоНастоящите алгоритми на AI често генерират изображения с ограничена разделителна способност и този инструмент открива тези ограничения с модел на CNN.
- Разкриване на дълбоки фалшификати с използване на непоследователни пози на главата- Прави се размяна между оригиналното и синтезираното лице, така че да се появят грешки в позата на главата в 3D. С модел HopeNet тези несъответствия могат да бъдат открити.
- Изображенията, генерирани от CNN, са изненадващо лесни за откриване ... засега: Може да се потвърди, че текущите изображения, генерирани от CNN, споделят системни недостатъци.
Трактатът OpenEXPO е много интересна тема и също толкова необходим инструмент, тъй като тези дълбоки фалшификати са от дневен ред ...
Повече информация - Официален уебсайт на събитието