OpenEXPO Virtual Experience 2021 contó con un padrino excepcional, como es Chema Alonso. El popular experto en seguridad daría también una conferencia tratando temas tan interesantes como la ciberseguridad y cómo pueden influir en ella los deepfakes y la IA.
Y es que, con el avance en la inteligencia artificial, la ciberseguridad se enfrenta a nuevos retos. Actualmente se puede suplantar una identidad de forma relativamente sencilla con la IA, dando lugar a que surja el fenómeno de los deepfakes que inundan las redes sociales e Internet.
Un DeepFake permite, por ejemplo, usar un vídeo ya existente con algún personaje y cambiar su cara por otra, así como insertar una voz clonada que esté pronunciando palabras que jamás habría pronunciado. Algo que podría dar lugar a terribles bulos, especialmente si se usan contra líderes políticos o con gran capacidad de influir sobre la población.
Actualmente se han transformado en una de las técnicas más sofisticadas para extender noticias falsas y campañas de desinformación. Incluso pueden influir notablemente en el aumento de ciberataques, como bien apuntaba Chema Alonso desde OpenEXPO Virtual Experience.
Y es un mal más preocupante de lo que parece. Hasta 2019 había menos de 15.000 deepfakes circulando por Internet. En 2020 se llegó a casi 50.000 vídeos falsos, el 96% de ellos de carácter pornográfico. Y la cifra no para de crecer, generando nuevos desafíos para la ciberseguridad.
Para la detección de estos deepfakes, Chema Alonso apunta a dos formas de análisis:
- Análisis forense de las imágenes.
- Extracción de los datos biológicos a partir de imágenes.
El reconocido experto ha profundizado en este tema en su charla para OpenEXPO Virtual Experience 2021, y junto a su equipo, ha podido desarrollar un plug-in para el navegador web Chrome con el que cualquier usuario podrá seleccionar un vídeo y ejecutar pruebas para detectar estos DeepFakes.
Este plugin implementa 4 investigaciones científicas para la lucha con estos engaños:
- FaceForensics++: comprueba en base a un modelo entrenado sobre su propia base de datos.
- Exposing DeepFake Videos by Detecting Face Warping Artifacts: los algoritmos de IA actuales suelen generar imágenes de resoluciones limitadas, y esta herramienta detecta esas limitaciones con un modelo CNN.
- Exposing Deep Fakes Using Inconsistent Head Poses: se realiza un swap entre la cara original y la sintetizada, por lo que eso produce errores en la pose de la cabeza en 3D. Con un modelo HopeNet se podrán detectar esas incoherencias.
- CNN-generated Images Are Surprisingly Easy To Spot… for now: se puede confirmar que las imágenes actuales generadas por CNN comparten defectos sistemáticos.
El tratado en OpenEXPO es un tema de lo más interesante y una herramienta igualmente necesaria, dado que estos deepfakes están a la orden del día…
Más información – Web Oficial del Evento
Sé el primero en comentar