Виртуальный опыт OpenEXPO 2021 рассчитывал на исключительный спонсор, как и Чема Алонсо. Популярный эксперт по безопасности также проведет конференцию по таким интересным темам, как кибербезопасность и как на нее могут влиять дипфейки и искусственный интеллект.
И именно благодаря развитию искусственного интеллекта кибербезопасность сталкивается с новыми проблемами. В настоящее время идентичность может быть сравнительно легко вытеснена с помощью ИИ, что приводит к феномену дипфейки которые наводняют социальные сети и Интернет.
DeepFake позволяет, например, использовать существующее видео с некоторым персонажем и смени свое лицо на другое, а также вставка клонированного голоса, который произносит слова, которые он никогда бы не произнес. Что-то, что может привести к ужасным розыгрышам, особенно если оно будет использовано против политических лидеров или с большой способностью влиять на население.
Сегодня они стали одним из самых изощренных методов распространения фейковых новостей и кампаний дезинформации. Они даже могут существенно повлиять рост кибератак, как указал Чема Алонсо из OpenEXPO Virtual Experience.
И это более тревожное зло, чем кажется. До 2019 года в Интернете циркулировало менее 15.000 дипфейков. В 2020 году было почти 50.000 XNUMX фейковых видео, 96% из них порнографического характера. И это число не перестает расти, создавая новые проблемы для кибербезопасности.
Для обнаружения этих дипфейков Чема Алонсо указывает на две формы анализа:
- Судебно-медицинский анализ изображений.
- Удаление биологические данные из изображений.
Известный эксперт углубился в эту тему в своем выступлении на OpenEXPO Virtual Experience 2021, и вместе со своей командой он смог разработать плагин для веб-браузера Chrome с помощью которого любой пользователь может выбрать видео и запустить тесты для обнаружения этих DeepFakes.
Этот плагин реализует 4 научное исследование для борьбы с этими обманами:
- FaceForensics ++: проверяет на основе модели, обученной на собственной базе данных.
- Выявление видео DeepFake путем обнаружения артефактов деформации лицаСовременные алгоритмы ИИ часто генерируют изображения с ограниченным разрешением, и этот инструмент обнаруживает эти ограничения с помощью модели CNN.
- Разоблачение глубоких фейков с использованием непоследовательных поз головы- Обмен производится между исходным и синтезированным лицом, что вызывает ошибки в позе головы в 3D. Эти несоответствия можно обнаружить с помощью модели HopeNet.
- Изображения, созданные CNN, на удивление легко обнаружить… пока: Можно подтвердить, что текущие изображения, созданные CNN, имеют систематические недостатки.
Трактат OpenEXPO - очень интересный и столь же необходимый инструмент, раз уж эти дипфейки в порядке вещей ...
Больше информации - Официальный сайт мероприятия