GettyImages 1310052396 5e54274432f74d61bb45c96a37d353d4 scaled
  • Kun syväväärennöksiä on helpompi luoda, uusista ja parannetuista tavoista havaita ne ovat tulleet etusijalle.
  • Facebookin deepfake spotting -tekniikka käyttää käänteistä koneoppimista selvittääkseen, onko video deepfake vai ei.
  • Asiantuntijat sanovat, että blockchain-teknologian käyttö on paras tapa kertoa, onko video todellinen vai ei, koska menetelmä perustuu kontekstitietoihin.
Facebook luottaa koneoppimismalliinsa taistellakseen syväväärennöksiä vastaan, mutta asiantuntijat sanovat, että koneoppiminen yksinään ei pelasta meitä syvän väärennösten harhaanjohtamisesta. Yritykset, kuten Facebook, Microsoft ja Google, pyrkivät kaikki hillitsemään syväväärennösten leviämistä Internetissä ja sosiaalisissa verkostoissa. Vaikka menetelmät eroavat toisistaan, on yksi mahdollinen idioottivarma tapa tunnistaa nämä väärennetyt videot: lohkoketjut. †[Blockchains] vain antaa sinulle paljon mahdollisuuksia validoida syväfake tavalla, joka on paras näkemäni validointimuoto», Stephen Wolfram, Wolfram Researchin perustaja ja toimitusjohtaja sekä teoksen kirjoittaja. Uudenlainen tiedekertoi Lifewirelle puhelimessa.

Facebookin Deepfake Spotting Tech

Deepfake-teknologia on kasvanut nopeasti viime vuosina. Petolliset videot käyttävät koneoppimismenetelmiä esimerkiksi kasvojen asettamiseen toisen keholle, taustaolosuhteiden muuttamiseen, väärennettyjen huulten synkronointia ja paljon muuta. Ne vaihtelevat harmittomista parodioista julkkisten tai julkisuuden henkilöiden saamiseen sanomaan tai tekemään jotain, mitä he eivät ole tehneet. Asiantuntijat sanovat, että tekniikka kehittyy nopeasti ja syväväärennöksistä tulee vain houkuttelevampia (ja helpompia luoda), kun teknologiasta tulee laajemmin saatavilla ja innovatiivisempi.

Facebook tarjosi äskettäin lisää tietoa syväväärennösten tunnistusteknologiastaan ​​yhteistyössä Michigan State Universityn kanssa. Sosiaalinen verkosto kertoo käyttävänsä yhden tekoälyn tuottaman kuvan käänteissuunnittelua sen tuottamiseen käytettyyn generatiiviseen malliin. Facebookin kanssa työskennelleet tutkijat sanoivat, että menetelmä perustuu syvän väärennöksen luomiseen käytetyn AI-mallin ainutlaatuisten kuvioiden paljastamiseen. «Yleistämällä kuvien attribuutio avoimeen tunnistukseen, voimme saada lisää tietoa syvän väärennöksen luomiseen käytetystä generatiivisesta mallista sen tunnistamisen lisäksi, että sitä ei ole aiemmin nähty. Ja jäljittämällä yhtäläisyyksiä kokoelman syväväärennösten välillä, voimme myös kertoa tuliko kuvasarja yhdestä lähteestä», tutkijat Xi Yin ja Tan Hassner kirjoittivat Facebookin blogikirjoituksessa syvänväärennösten havaitsemisesta.
Wolfram sanoo, että on järkevää käyttää koneoppimista löytääksesi edistyneen AI-mallin (deepfake). Teknologialla on kuitenkin aina tilaa huijata. «En ole ollenkaan yllättynyt siitä, että on olemassa kunnollinen tapa koneoppimiseen» [detecting deepfakes]Wolfram sanoi. «Ainoa kysymys on, ponnisteletko tarpeeksi, voitko huijata sen? Olen varma, että voit.»

Taistele syväväärennöksiä vastaan ​​eri tavalla

Sen sijaan Wolfram sanoi uskovansa lohkoketjun käyttämisen olevan paras vaihtoehto tietyntyyppisten syväväärennösten tarkkaan tunnistamiseen. Hänen näkemyksensä lohkoketjun käytöstä koneoppimisen sijaan juontaa juurensa vuonna 2019, ja hän sanoi, että lohkoketju-lähestymistapa voi lopulta tarjota tarkemman ratkaisun syväfake-ongelmaamme. «Odotan kuvien ja videoiden katsojien rutiininomaisesti tarkistavan lohkoketjuja (ja «datan kolmiomittauslaskelmia») samalla tavalla kuin verkkoselaimet nyt turvasertifikaatit», Wolfram kirjoitti Scientific American -lehdessä julkaistussa artikkelissa. Koska lohkoketjut tallentavat tiedot lohkoihin, jotka sitten ketjutetaan yhteen kronologisessa järjestyksessä, ja koska hajautetut lohkoketjut ovat muuttumattomia, syötetyt tiedot ovat peruuttamattomia. Ainoa kysymys on, voitko huijata sen, jos yrität tarpeeksi? Olen varma, että pystyt. Wolfram selitti, että laittamalla video lohkoketjuun, voit nähdä ajan, sijainnin ja muut kontekstuaaliset tiedot, joiden avulla voit nähdä, onko sitä muutettu millään tavalla. «Yleensä mitä enemmän valokuvan tai videon kontekstualisoivia metatietoja on, sitä todennäköisemmin näet sen», hän sanoi. «Et voi väärentää aikaa lohkoketjussa.» Wolfram kuitenkin sanoi, että käytetty menetelmä – olipa kyseessä koneoppiminen tai lohkoketjun käyttö – riippuu syvän väärennöksen tyypistä, jolta yrität suojautua (eli video, jossa Kim Kardashian sanoo jotain typerää, tai video poliitikosta lausunnossa). tee tai ehdota). «Blockchain-lähestymistapa suojaa tietyn tyyppisiltä syvällisiltä väärennöksiltä, ​​aivan kuten koneoppiva kuvankäsittely suojaa tietyn tyyppisiltä syvällisiltä väärennöksiltä», hän sanoi. Tärkeintä näyttää olevan meidän kaikkien valppaus, kun tulee taistella tulevaa syvää väärennettyä tulvaa.

Por Markus