OpenEXPO: Chema Alonso พูดถึง Deepfakes และความท้าทายใหม่ของการรักษาความปลอดภัยในโลกไซเบอร์

OpenEXPO คีมา อลอนโซ่

ประสบการณ์เสมือนจริง OpenEXPO 2021 นับบน สปอนเซอร์สุดพิเศษเช่นเดียวกับ Chema Alonso ผู้เชี่ยวชาญด้านความปลอดภัยที่ได้รับความนิยมจะจัดการประชุมในหัวข้อที่น่าสนใจ เช่น ความปลอดภัยทางไซเบอร์ และผลกระทบของ Deepfakes และ AI สามารถมีอิทธิพลต่อสิ่งนี้ได้อย่างไร

และด้วยความก้าวหน้าของปัญญาประดิษฐ์ การรักษาความปลอดภัยในโลกไซเบอร์เผชิญกับความท้าทายใหม่ๆ ปัจจุบันสามารถแทนที่อัตลักษณ์ได้ค่อนข้างง่ายด้วย AI ทำให้เกิดปรากฏการณ์ deepfakes ที่ท่วมเครือข่ายสังคมและอินเทอร์เน็ต

ตัวอย่างเช่น DeepFake อนุญาตให้ใช้วิดีโอที่มีอยู่กับอักขระบางตัวและ เปลี่ยนหน้าเป็นคนอื่นรวมไปถึงการใส่เสียงโคลนที่กำลังพูดคำที่มันไม่เคยพูด สิ่งที่อาจนำไปสู่การหลอกลวงที่น่ากลัว โดยเฉพาะอย่างยิ่งหากใช้กับผู้นำทางการเมืองหรือมีความสามารถอย่างมากในการโน้มน้าวประชากร

วันนี้พวกเขาได้กลายเป็นหนึ่งในเทคนิคที่ซับซ้อนที่สุดในการเผยแพร่ข่าวปลอมและแคมเปญบิดเบือนข้อมูล พวกเขาสามารถมีอิทธิพลอย่างมาก การโจมตีทางไซเบอร์ที่เพิ่มขึ้นตามที่ Chema Alonso ชี้ให้เห็นจาก OpenEXPO Virtual Experience

และมันก็เป็นความชั่วร้ายที่น่าเป็นห่วงมากกว่าที่เห็น จนถึงปี 2019 มี Deepfakes น้อยกว่า 15.000 ตัวที่เผยแพร่บนอินเทอร์เน็ต ในปี 2020 มันเป็น วิดีโอปลอมเกือบ 50.000 รายการ, 96% ของพวกเขามีลักษณะลามกอนาจาร และจำนวนนี้ก็ไม่หยุดเพิ่มขึ้น สร้างความท้าทายใหม่ๆ ให้กับความปลอดภัยทางไซเบอร์

สำหรับการตรวจจับของปลอมเหล่านี้ Chema Alonso ชี้ไปที่ การวิเคราะห์สองรูปแบบ:

  • การวิเคราะห์ทางนิติเวช ของภาพ
  • การกำจัด ข้อมูลทางชีววิทยา จากภาพ

ผู้เชี่ยวชาญที่มีชื่อเสียงได้เจาะลึกหัวข้อนี้ในการพูดคุยของเขาสำหรับ OpenEXPO Virtual Experience 2021 และร่วมกับทีมของเขา เขาได้สามารถพัฒนา ปลั๊กอินสำหรับเว็บเบราว์เซอร์ Chrome ซึ่งผู้ใช้สามารถเลือกวิดีโอและทำการทดสอบเพื่อตรวจจับ DeepFakes เหล่านี้ได้

ปลั๊กอินนี้ใช้4 การวิจัยทางวิทยาศาสตร์ สำหรับการต่อสู้กับการหลอกลวงเหล่านี้:

  • FaceForensics ++: ตรวจสอบตามแบบจำลองที่ได้รับการฝึกฝนบนฐานข้อมูลของตัวเอง
  • เปิดเผยวิดีโอ DeepFake โดยการตรวจจับวัตถุบิดเบี้ยวใบหน้าอัลกอริธึม AI ปัจจุบันมักสร้างภาพที่มีความละเอียดจำกัด และเครื่องมือนี้จะตรวจจับข้อจำกัดเหล่านั้นด้วยโมเดล CNN
  • เปิดเผยของปลอมอย่างลึกซึ้งโดยใช้ท่าโพสท่าที่ไม่สอดคล้องกัน- มีการสลับระหว่างใบหน้าเดิมและใบหน้าที่สังเคราะห์ ทำให้เกิดข้อผิดพลาดในท่าทางของศีรษะในแบบ 3 มิติ ด้วยโมเดล HopeNet สามารถตรวจพบความไม่สอดคล้องกันเหล่านี้ได้
  • รูปภาพที่สร้างโดย CNN นั้นมองเห็นได้ง่ายอย่างน่าประหลาดใจ… สำหรับตอนนี้: ยืนยันได้ว่าภาพปัจจุบันที่สร้างโดย CNN มีข้อบกพร่องอย่างเป็นระบบ

บทความ OpenEXPO เป็นหัวข้อที่น่าสนใจมากและ เครื่องมือที่จำเป็นเท่าเทียมกันเนื่องจากของปลอมเหล่านี้เป็นคำสั่งของวัน ...

ข้อมูลมากกว่านี้ - เว็บไซต์อย่างเป็นทางการของงาน


แสดงความคิดเห็นของคุณ

อีเมล์ของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมายด้วย *

*

*

  1. รับผิดชอบข้อมูล: AB Internet Networks 2008 SL
  2. วัตถุประสงค์ของข้อมูล: ควบคุมสแปมการจัดการความคิดเห็น
  3. ถูกต้องตามกฎหมาย: ความยินยอมของคุณ
  4. การสื่อสารข้อมูล: ข้อมูลจะไม่ถูกสื่อสารไปยังบุคคลที่สามยกเว้นตามข้อผูกพันทางกฎหมาย
  5. การจัดเก็บข้อมูล: ฐานข้อมูลที่โฮสต์โดย Occentus Networks (EU)
  6. สิทธิ์: คุณสามารถ จำกัด กู้คืนและลบข้อมูลของคุณได้ตลอดเวลา