OpenEXPO: Chema Alonso snakker om deepfakes og de nye utfordringene med cybersikkerhet

OpenEXPO Chema Alonso

OpenEXPO Virtual Experience 2021 regnet med en eksepsjonell sponsorsom Chema Alonso. Den populære sikkerhetseksperten ville også holde en konferanse om slike interessante emner som cybersikkerhet og hvordan deepfakes og AI kan påvirke det.

Og det er at cybersikkerhet med fremskritt innen kunstig intelligens står overfor nye utfordringer. For tiden kan en identitet erstattes relativt enkelt med AI, noe som gir opphav til fenomenet deepfakes som oversvømmer sosiale nettverk og Internett.

En DeepFake tillater for eksempel å bruke en eksisterende video med noe karakter og endre ansiktet ditt for en annen, i tillegg til å sette inn en klonet stemme som uttaler ord som den aldri ville ha talt. Noe som kan føre til forferdelige hoaxes, spesielt hvis det brukes mot politiske ledere eller med stor evne til å påvirke befolkningen.

I dag har de blitt en av de mest sofistikerte teknikkene for å spre falske nyheter og desinformasjonskampanjer. De kan til og med påvirke betydelig økningen i nettangrep, som Chema Alonso påpekte fra OpenEXPO Virtual Experience.

Og det er et mer bekymringsfullt onde enn det ser ut til. Fram til 2019 sirkulerte mindre enn 15.000 2020 dype forfalskninger på Internett. I XNUMX var det nesten 50.000 falske videoer, 96% av dem av pornografisk art. Og tallet slutter ikke å vokse, og genererer nye utfordringer for cybersikkerhet.

For påvisning av disse dype forfalskningene, peker Chema Alonso på to former for analyse:

  • Rettsmedisinsk analyse av bildene.
  • Fjerning av biologiske data fra bilder.

Den anerkjente eksperten har fordypet seg i dette emnet i sin tale for OpenEXPO Virtual Experience 2021, og sammen med teamet sitt har han vært i stand til å utvikle en plug-in for Chrome-nettleseren som enhver bruker kan velge en video med og kjøre tester for å oppdage disse DeepFakes.

Denne pluginen implementerer 4 Vitenskapelig forskning for kampen med disse bedragene:

  • FaceForensics ++: sjekker basert på en modell trent på sin egen database.
  • Eksponere DeepFake-videoer ved å oppdage gjenstander for ansiktsforvrengningNåværende AI-algoritmer genererer ofte bilder med begrensede oppløsninger, og dette verktøyet oppdager disse begrensningene med en CNN-modell.
  • Å eksponere dype forfalskninger ved å bruke inkonsekvente hodestillinger- Det blir laget et bytte mellom de originale og syntetiserte ansiktene, slik at det forårsaker feil i hodets stilling i 3D. Med en HopeNet-modell kan disse inkonsekvensene oppdages.
  • CNN-genererte bilder er overraskende enkle å få øye på ... foreløpig: Det kan bekreftes at de nåværende bildene generert av CNN deler systematiske feil.

OpenEXPO-avhandlingen er en veldig interessant og et like nødvendig verktøy, siden disse dypfakene er dagens orden ...

Mer informasjon - Offisiell nettside for arrangementet


Bli den første til å kommentere

Legg igjen kommentaren

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

*

*

  1. Ansvarlig for dataene: AB Internet Networks 2008 SL
  2. Formålet med dataene: Kontroller SPAM, kommentaradministrasjon.
  3. Legitimering: Ditt samtykke
  4. Kommunikasjon av dataene: Dataene vil ikke bli kommunisert til tredjeparter bortsett fra ved juridisk forpliktelse.
  5. Datalagring: Database vert for Occentus Networks (EU)
  6. Rettigheter: Når som helst kan du begrense, gjenopprette og slette informasjonen din.