Sužinokite „Zodiac Sign“ Suderinamumą
Bandėme sukurti Marko Zuckerbergo ir Alexo Joneso klastotę – ir nepavyko. Štai kas atsitiko.
Faktų Patikrinimas

Padaryti, kad kažkas padarė ar pasakė tai, kas niekada neįvyko, yra sunkiau, nei atrodo.
Štai ką Poynteris sužinojo per pastarąsias kelias savaites, bandydamas sukurti „giliai netikrą“ vaizdo įrašą, kuriame Aleksas Džounsas, „Infowars“ šeimininkas ir dažnas sąmokslo teoretikas, pateikia pastabas, kurias iš tikrųjų pasakė „Facebook“ generalinis direktorius Markas Zuckerbergas. Gilios klastotės, pavadintas Reddit vartotojo vardu kurie sugalvojo šį metodą, iš esmės sukuriami iš vieno vaizdo įrašo ištraukiant daug kadrų ir juos uždedant vieną ant kito.
Tikslas: atrodytų, kad kažkas daro ar sako tai, ko nedaro. Būtent tai Poynter bandė padaryti, kad pamatytų, kaip lengva iš tikrųjų naudoti šią technologiją.
Naudojant FakeApp , nemokamą internetinį įrankį, leidžiantį naudotojams kurti savo gilias klastotes, bandėme sukurti elementarų vaizdo įrašą, kuriame Zuckerbergas skleidžia nepagrįstas Joneso sąmokslo teorijas. Žemiau yra vaizdo įrašas, sukurtas padedant „Poynter“ ne visą darbo dieną dirbančiam žiniatinklio kūrėjui Warrenui Fridy.
Akivaizdu, kad tai nėra gera to versija mėgėjiška pornografija , žmonės pakraščiuose tinklalapiuose ir net politinės partijos įgijo nerimą keliančius įgūdžius. Nors Zuckerbergo veidas iš tikrųjų yra padengtas Joneso veidu, „FakeApp“ apėmė visą jo veidą, todėl jis atrodė kaip kažkoks neryškus demonas be matomų akių. Tada yra tai, kad garsas nebuvo perkeltas.
Trumpai tariant: turėtume išlaikyti savo kasdienius darbus.
Atmetus juokelius, prireikė kelių savaičių, kol sugalvojome tai, kas toli gražu nėra tinkamas „deepfake“ vaizdo įrašas. Ir taip yra todėl, kad nepaisant dažno pasaulio pabaigos žiniasklaidoje apie giliai padirbtą technologiją, iš tikrųjų labai sunku sukurti vieną.
„Deepfax reikalauja nemažai rankų pastangų“, – sakė Matthiasas Niessneris , Miuncheno technikos universiteto profesorius, kurio laboratorija tyrimai Deepfakes, el. laiške Poynter. „Tam tikra prasme tai būtų panašu į Photoshop. Tai tiesiog šiek tiek perdėta.
Pasak ekspertų, giliųjų klastotės, aptartos šiandien Romoje vykusio pasaulinio faktų tikrinimo aukščiausiojo lygio susitikimo komisijoje, iš baisaus interneto dalyko tapo tikra grėsme demokratijai. Riedantis akmuo . Vox rašė kad manipuliuoti vaizdo įrašai gali pakeisti mūsų prisiminimus, „The Verge“ sakė kurti giliai padirbtus pornografinius vaizdo įrašus netrukus bus labai paprasta ir Laidiniai net uždengti „blockchain“ startuolis, pasišventęs kovai su formatu.
Tuo pačiu metu, kai kurie pranešė kad bendrieji padirbinėjimai jau baigėsi, o „gilūs vaizdo portretai“ yra tai, dėl ko turėtume nerimauti.
Tuo tarpu po daugiau nei mėnesio bandymų mums vos pavyko sukurti tai, kas atrodė net šiek tiek tikroviška. Žinoma, tai gali būti (teisėtai) nulemta mūsų pačių mašininio mokymosi modelių nežinojimo – kitas žurnalistai turėjo daugiau sėkmės, tačiau esmė ta, kad sukurti gerokai pakeistą vaizdo įrašą dar nėra taip paprasta, kaip paskelbti netikrą naujieną „Facebook“ (ir tikriausiai ne taip pelninga).
„Nemanau, kad žmonės, neturintys jokios gilaus mokymosi patirties, gali sukurti įtikinamą „deepfake“ vaizdo įrašą naudodami „deepfake“ programą, esančią internete“, - sakė jis. Annalisa Verdoliva , Neapolio universiteto Federico II docentas, elektroniniame laiške Poynter. „Net ir patyrusiems žmonėms tai gana sunku.
Verdoliva bandė sukurti savo „deepfake“ vaizdo įrašą su tyrėjų komanda ir teigė, kad jis pasirodė prastai, nes jie negavo pakankamai vaizdų variacijų, kad būtų galima tiksliai išmokyti modelį, kuris sukuria „deepfake“. Tai taip pat pagrindinis iššūkis būsimiems apgavikams, tokiems kaip Poynteris.
Štai žingsniai, kurių ėmėmės:
- Atsisiuntėme „FakeApp“ ir įdiegėme ją „Windows“ nuotoliniame darbalaukyje („Poynter“ beveik išimtinai naudoja „Mac“, su kuriais „FakeApp“ nesuderinama).
- Atsisiuntėme du vaizdo klipus – vienas iš Zuckerbergų kalbėdamas apie Rusijos kišimosi į 2016 m. JAV rinkimus tyrimą ir kitas Jonesas kalbame apie „giliąją valstybę“ ir prezidento Donaldo Trumpo politinę darbotvarkę. Tai suteikia FakeApp daug veido nuotraukų, iš kurių galite pasirinkti.
- Mes leidžiame „dirbtiniam intelektui“, kuris įgalina „FakeApp“, rasti ir apkarpyti veidus kiekviename vaizdo įraše, kad sukurtume mašininio mokymosi modelį, kuris sujungtų Jonesą ir Zuckerbergą, kad atrodytų, jog pirmasis kalba kaip antrasis. Tai užtruko visą savaitgalį arba maždaug tris dienas.
- Galiausiai „FakeApp“ sukūrė vaizdo įrašą. Fridy teigė, kad būtų galėjęs treniruoti modelį ilgiau ir pateikęs daugiau Zuckerbergo veido nuotraukų, kad būtų tikslesnis, tačiau tai būtų užtrukę ilgiau.
Dabar linksmoji dalis. Štai keletas problemų, su kuriomis susidūrėme naudodami „FakeApp“:
- Negalite paleisti „FakeApp“ „Apple“ „MacOS“ – ji mums veikė tik „Windows“.
- Jūs privalote turėti NVIDIA pagrindu sukurta vaizdo plokštė , kuri iš esmės yra aparatinės įrangos dalis, leidžianti apdoroti visus vaizdus ir modifikuoti juos kartu.
- Kompiuteryje turi būti daug atminties – apie 10 GB.
- Susidūrėme su suderinamumo problemomis su skirtingomis TensorFlow versijomis – programinės įrangos biblioteka, leidžiančia FakeApp sukurti mašininio mokymosi modelį.
- Ištraukėme garsą iš originalaus vaizdo įrašo, kad pabandytume jį įtraukti į gilų klastotę, bet „FakeApp“ su juo nieko nepadarė.
„FakeApp skamba gerai, bet kai atsisėdi išbandyti, tai neveikia 100 procentų“, – sakė Fridy. „Tai nėra iš dėžutės pagamintas įrankis“.
FakeApp pranešama, kad buvo atsisiųsta daugiau nei 100 000 kartų. Yra ištisi „4chan“ ir „Reddit“ kanalai, skirti „deepfake“ kūrimui. Tačiau kol kas ši technologija geriausiu atveju yra pradinė – net ir tiems, kurie žino, kaip tinkamai ja naudotis.

(Ekrano nuotraukos iš „FakeApp“)
Fridy sakė, kad technologija patinka Adobe After Effects ir Lyro paukštis , taip pat Veidas2Veidas ir Pixel2Pixel , tikriausiai būtų geresnis pasirinkimas kuriant netikrą vaizdo įrašą. S.pa, Belgijos politinė partija, kuri sukūrė gilią Trumpo klastotę praėjusį mėnesį naudojo After Effects.
Nepaisant įrankio komplikacijų, gilūs padirbti vaizdo įrašai vis dar kelia nerimą – tik ne artimiausioje ateityje ir su keletu įspėjimų.
„Esame tik šios technologijos pradžioje ir manau, kad ji greitai tobulės ir taps lengvai naudojama visiems“, – sakė Verdoliva. „Šiuo metu skiriamoji geba vis dar per maža, tačiau artimiausiu metu tai bus problema, nes buvo padaryta stulbinanti pažanga kuriant aukštos kokybės sintetinius veidus.
Tuo pačiu metu neteisingas supratimas ir pernelyg didelis padirbinėjimo poveikis ir potencialas gali kelti didesnę grėsmę trumpuoju laikotarpiu.
„Šiuo metu man didžiausią susirūpinimą kelia klaidingas daugelio šių požiūrių supratimas“, - sakė Niessneris. „Kino pramonė pastaruosius 30 metų kuria gana tikroviškus „netikrus“ vaizdus. Tačiau dabar pridedant dirbtinį intelektą kaip madingąjį žodį, staiga tai tampa problema, nors jis net neveikia taip gerai.
Deepfake vaizdo įrašai bus aptariami šiandien „Global Fact 5“ konferencijoje. Stebėkite @factchecknet ir #GlobalFactV, kad gautumėte tiesioginių naujinių.