12 giluminių pavyzdžių, kurie siaubė ir linksmino internetą

(Vaizdo kreditas: „DeepFaker“)

Yra giliai suklastotų pavyzdžių, kurie neįtikėtinai įtikina. Šie vaizdo įrašai parodo, kaip gilaus mokymosi technologijos gali visiškai pakeisti filmų kūrėjų ir 3D menininkų planus, tuo pačiu rimtai sutrumpindamos redagavimo laiką. „YouTube“ netgi rasite netikrų klastotių, kurios pagerintų originaliame filme rastą CGI filmuotą medžiagą (pvz., Šiame sąraše rodoma perkurta princesė Leia). Tačiau vis labiau nerimaujama dėl to, kaip būtų galima piktnaudžiauti technologijomis kuriant tikroviškus, negatyviam tikslui pritaikytus vaizdo įrašus.

Daugelyje filmų dabar yra gilių klastotės (pavyzdžiui, kai kuriuose iš mūsų mėgstamiausių 3D filmai ), nes jie tampa vis dažnesne pagrindinio proceso dalimi. Šiame įraše apžvelgiame 10 žinomiausių klastotių. Bet pirmiausia, čia yra šiek tiek daugiau informacijos apie tai, kas iš tikrųjų yra giluminiai klastotės ir kaip jie gaminami.

Kas yra giluminiai klastotės?

„Deepfakes“ yra taip pavadinti, nes jie naudoja gilaus mokymosi technologiją - mašininio mokymosi šaką, kuri neuroninio tinklo modeliavimą taiko masiniams duomenų rinkiniams, kad sukurtumėte klastotę. Dirbtinis intelektas efektyviai sužino, kaip atrodo šaltinio veidas skirtingais kampais, kad veidą perkeltų į taikinį, dažniausiai aktorių, tarsi į kaukę. Didelė pažanga padaryta taikant generatyvinius prieštaravimo tinklus (GANS), kad du AI algoritmai būtų susieti vienas su kitu, vienas sukuria padirbinius, o kitas - savo pastangas, mokydamas sintezės variklį padaryti geresnes klastotes.

Holivudas perkėlė tikrus ar išgalvotus veidus į kitus aktorius, pavyzdžiui, 2016 m. „Rogue One: A Star Wars Story“ sugrąžino Peterį Cushingą į gyvenimą, tačiau technika naudojo sudėtingus, brangius vamzdynus ir ant veido montuojamas kameras.

Paprasti programinės įrangos įrankiai, tokie kaip „FakeApp“ ir „DeepFaceLab“ nuo to laiko padarė visiems prieinamą panašų poveikį. Ši technologija siūlo įdomias galimybes, pradedant vaizdo įrašų dubliavimu, tobulinimu ir taisymu, baigiant nemalonaus slėnio efektu vaizdo žaidimuose, vengiant aktoriams kartoti pūkuotą liniją, kuriant programas, leidžiančias mums pasimatuoti drabužius ar šukuosenas, ir net treniruotis. gydytojų, tačiau daugelis baiminasi, kad tai būtų naudojama niekšiškiems tikslams. Tai klastotės, kurios iki šiol labiausiai gąsdino (ir pralinksmino) žmones.

01. Wonder Woman

Filmų perdarymai ir perkrovimai yra didžiulė kino pramonės dalis, apimanti visus žanrus. Šiuolaikiniams aktoriams atliekant išties ikoniškus vaidmenis, neišvengiamai palyginami vaizdavimai. „Deepfake“ technologija žengia tuos palyginimus dar vienu žingsniu, pažodžiui į sceną ar seką įterpdama vieną veikėją vietoje kito, pabrėždama skirtumus ir panašumus, kuriuos žavu stebėti.

Šis pavyzdys iš „DeepFaker“ , perkelia aktorę Lyndą Carter į 70-ųjų televizijos pasaulį Gal Gadot's Wonder Woman - su neįtikėtinais rezultatais.

02. „Deepfake“ apskritasis stalas

Su transliacijos paslaugomis kovodami dėl jūsų dėmesio ir prieš kiną, Susidūrėjas sudėkite šį juokingą padirbtą filmą, kuriame yra keletas supergarsių veidų. Tomas Cruise'as, Robertas Downey'us, jaunesnysis, George'as Lucasas, Ewanas McGregoras ir Jeffas Goldblumas'as nepaprastai įtikinamame ir linksmame vaizdo įraše aptaria transliaciją ir kino ateitį. Kaip sako vienas komentatorius, tai yra „baisu gerai“.

geriausias vaiko piešinys pasaulyje

03. Princesė Lėja perdarė ... vėl

Filme „Žvaigždžių karai: nesąžiningas vienas“ princesė Lėja buvo pertvarkyta, o kritikai ir gerbėjai knibždėte knibždėjo CGI kokybės, matant jaunos Carrie Fisher veidą, priklijuotą ant kitos aktorės kūno. Laikoma, kad nerealu, ypatingas neigiamas dėmesys akims ir odos tekstūrai, CGI nebuvo laikomas tinkamu vaizdu ir daugeliui sugadino filmo pabaigą.

Vienas iš ankstyviausių „deepfake“ kūrėjų, „Derpfakes“ , paskelbė šį perdarymą „YouTube“ ir žmonės dėl to pašėlo. Šypsena, akys, viskas yra vietoje, su puikiu veido sekimu. „Žvaigždžių karų“ gerbėjai pakomentavo teigdami, kad jie nori, jog originalus filmas būtų sukurtas naudojant šią technologiją.

Laimei, „Žvaigždžių karų“ komanda pasimokė iš klaidos ir naudojo visiškai kitokį Fišerio scenų „Skywalker pakilime“ procesą, naudodama „The Force Awakens“ konservuotus Fisherio kadrus.

04. Donaldas Trumpas prisijungia prie „Breaking Bad“

Nors kai kurie klastotės bando apgauti žiūrovą, „Better Call Trump: Money Laundering 101“ yra tiesiog parodija. Tai užima sceną iš itin populiaraus „Breaking Bad“ serialo ir pristato Donaldą Trumpą kaip Jamesą McGillą, kuris vėliau perėmė Sauliaus Goodmano pseudonimą spin-off seriale „Better Call Saul“.

Scenoje Jamesas McGillas paaiškina Walterio White'o bendražygiui Jesse'ui Pinkmanui (Aaronui Paului) pinigų plovimo pagrindus. Norint, kad scenoje būtų šiek tiek tikroviškumo, Donaldo Trumpo sunaikintas žentas Jaredas Kushneris scenoje perima iš Jesse'o Pinkmano, parodiją paversdamas kone asmenine širdimi.

„YouTube“ kūrėjai „Ctrl Shift“ veidas parodijos komanda, naudodama „DeepFaceLab“, kūrė D.Trumpo ir Kushnerio veidus kadre po kadro. Balsus, užbaigiančius sceną, suteikė Stabilūs balsai , pasirinktinis dirbtinio intelekto modelis, mokomas iš tikrųjų kalbos pavyzdžių.

05. Obamos pranešimas apie viešąją tarnybą

Daugelis įtikinamiausių giluminių klastotių buvo sukurtos naudojant apsimetėlius, galinčius imituoti šaltinio balsą ir gestus, kaip matyti iš šio „BuzzFeed“ ir komiko Jordano Peeleo įspėjimo „After Effects CC“ ir „FakeApp“. Jie užklijavo Peele burną ant Obamos, pakeitė buvusio prezidento žandikaulį į tą, kuris sekė Peele burnos judesius, tada naudodamas „FakeApp“ patikslino filmuotą medžiagą per daugiau nei 50 valandų automatinio apdorojimo.

Politikai ir įžymybės yra dažniausios klastotės aukos. Likus mažiau nei metams iki minėto vaizdo įrašo, Vašingtono universiteto informatikai naudojo neuroninį tinklą AI, kad modeliuotų Obamos burnos ir sinchronizuokite jį su garso įvestimi .

Garsūs skaičiai naudojami todėl, kad jų viešose vietose pateikiama pakankamai informacijos apie AI, iš kurios galima pasimokyti, tačiau atsižvelgiant į asmenukių kiekį, kurį vidutinis žmogus atlieka per visą savo gyvenimą, ir technologijų pažangą, galbūt netrukus kas nors galėtų būti naudojamas kaip šaltinis.

06. Nancy Pelosi sulėtino greitį

Šis „fakefake“ pavyzdys iš tikrųjų nėra „deepfake“ pavyzdys, bet pavyzdys, kodėl jų potencialus netinkamas naudojimas taip bijojo politikoje. Tai iš tikrųjų buvo Nancy Pelosi, JAV Atstovų rūmų pranešėja, tačiau vaizdo įrašas sulėtėjo 25 procentais, o aukštis buvo pakeistas, kad atrodytų, jog ji menkina savo žodžius.

Vaizdo įrašą paskelbė „Facebook“ puslapis pavadinimu „Politics Watchdog“ ir juo buvo plačiai dalijamasi, įskaitant buvusį Niujorko miesto merą Rudy Giuliani, kuris tviteryje parašė: „Kas yra Nancy Pelosi? Jos kalbos modelis keistas “.

Iš pradžių „Facebook“ atsisakė pašalinti klipą, tačiau teigė, kad sumažino jo platinimą, kai faktas buvo patikrintas kaip melagingas. Vėliau įrašas buvo ištrintas, bet neaišku, kas. Šis atvejis iliustruoja, kokį piktnaudžiavimą žmonės gali sukelti Stanfordo universiteto birželį pristatyta technologija leidžiantis vaizdo įrašo garsą redaguoti taip pat lengvai, kaip tekstinį dokumentą.

07. Zuckerbergas kalba atvirai

[NAUJA RELEASE] „Norėčiau, kad galėčiau ...“ (2019) Markas Zuckerbergas, „@facebook“ įkūrėjas, atskleidžia „tiesą“ apie privatumą „#facebook“. Šis meno kūrinys yra dirbtinio intelekto sukurtų vaizdo darbų, sukurtų „Spectre“, dalis - įtraukiantis skaitmeninės įtakos pramonės, technologijų ir demokratijos tyrinėjimas. [nuoroda į bio]. Art by Bill Posters & @danyelhau for @sheffdocfest @sitegallery #artnotmisinformation #thefutureisntprivate #deepfakes #deepfake #spectreknows #surveillancecapitalism #privacy #democracy #dataism #contemporaryartwork #digitalart #genermediviaženklis #generativeart

@Bill_posters_uk paskelbta nuotrauka 2019 m. Birželio 13 d., 5:18 PDT

Reaguodamas į „Facebook“ atsisakymą pašalinti Nancy Pelosi vaizdo įrašą, menininkas Billas Plakatas birželį paskelbė tai „Facebook“ priklausančiame „Instagram“, parodydamas, kaip Markas Zuckerbergas giriasi, kaip platforma „valdo“ savo vartotojus. Ar „Facebook“ reaguotų kitaip, kai manipuliuojama savo paties įkūrėju?

Iš pradžių filmas buvo „Plakatų“ ir Danielio Howe'o „Spectre“ kūrinio dalis, užsakyta Sheffield Doc Fest, siekiant atkreipti dėmesį į tai, kaip žmonėmis gali manipuliuoti socialinė žiniasklaida. Jis buvo pagamintas naudojant Izraelio startuolio „Canny AI“ programinę įrangą „VDR“ (vaizdo dialogo pakaitalas), kurią reklamavo giliai padirbtas singlas, kuriame vaidino įvairūs pasaulio lyderiai.

„Instagram“ nepašalino „Zuckerberg“ vaizdo įrašo, tačiau teigė, kad „elgsis su šiuo turiniu taip pat, kaip su visa neteisinga„ Instagram “informacija. Jei trečiųjų šalių tikrintojai pažymės, kad tai klaidinga, mes jį filtruosime “. Plakatai jį pažymėjo naudodami žymą #deepfake. Nors vaizdo įrašas yra pakankamai įtikinamas nebyliai, balsas jį atiduoda, parodydamas, kad norint padaryti tikėtinus padirbinius vis dar reikalingas geras aktorius, tačiau dirbtinio intelekto balso sintezę jau pateikė Lyrebird ir „Adobe VoCo“, gali praeiti neilgai, kol praeinamus balsus bus galima lengvai pridėti prie giluminių klastotių.

08. Donaldas Trumpas skaito paskaitas Belgijoje

Pirmuoju žinomu atveju, kai politinė partija naudojo klastotę, Belgijos socialistinė partija Anders (sp. A) dar 2018 m. Gegužės mėn. Paskelbė šį vaizdo įrašą „Facebook“, kuriame matyti, kaip D.Trumpas tyčiojasi iš Belgijos, kad ji lieka Paryžiaus klimato sutartyje. D.Trumpo plaukai atrodo dar keisčiau nei įprastai ir grubus burnos judesys, jie yra labai aiškiai netikri, o balsas sako tiek, nors paskutinė eilutė „Mes visi žinome, kad klimato kaita yra netikra, kaip ir šis vaizdo įrašas“ t subtitruota flamandų kalba, tačiau vis tiek pakako išprovokuoti vieną vartotoją pakomentuoti „Trumpy turi pažvelgti į savo šalį su beprotiškais vaikų žudikais“, o kad sp.a turėtų paaiškinti, kad tai netikra.

Įtikinamesnį D.Trumpą (žemiau) vėliau sukūrė „YouTuber Derpfakes“, kuris apmokė „DeepFaceLab“ atvaizduoti D.Trumpo veido kompoziciją per Aleco Baldwino „Saturday Night Live“ apsimetinėjimą juo, parodydamas, kiek toli per metus pasiekta technologija. Vaizdo įrašas buvo užblokuotas JAV ir Kanadoje.

09. Yang Mi keliauja laiku

Prieš porą metų vaizdo įrašas, kuriame 1983 m. Honkongo televizijos drama „Kondorų herojų legenda“ įklijavo vieno garsiausių Kinijos šiuolaikinių aktorių Yang Mi veidą, surinko apie 240 mln. Peržiūrų, kol ją nepašalino. Kinijos valdžios institucijos.

Jo kūrėjas, „Yang Mi“ gerbėjas, atsiprašė mikroblogų tinklapyje „Weibo“ ir sakė, kad padarė vaizdo įrašą kaip įspėjimą, kad padidintų šios technologijos žinomumą. Nors atrodo tikėtina, kad bus pradėta neigiama reakcija į filmų ir televizijos pramonės klastotes, taip pat galima pamatyti, kaip pramonė galų gale galėtų pritaikyti technologijas ir jas paversti pelnu, leisdama žiūrovams vaidinti režisierių išleistuose namuose, manipuliuojant dialogu. , įtraukiant alternatyvias scenas ar net įterpiant save kaip personažus. Taip pat tikėkitės pamatyti vaizdo žaidimus, kuriuose gausu garsenybių pasirodymų.

10. Salvadoras Dalí grįžta į gyvenimą

Agentūra „GS&P“ pasirinko tokį antraštę traukiantį reklamą mėgstantį Dalí, kuris tikrai būtų įvertinęs save, kai jie prikėlė katalonų menininką kaip charizmatišką vedėją Dalí muziejus Floridoje. Skaičiuojama kaip „menas susitinka su dirbtiniu intelektu“, „Dalí Lives“ buvo sukurtas ištraukus daugiau nei 6000 kadrų iš senų vaizdo interviu ir apdorojant juos per 1000 valandų mašininio mokymosi, kad būtų galima uždengti šaltinį ant aktoriaus veido. Tekstas buvo sudarytas iš interviu ir laiškų citatų ir naujų komentarų mišinio, sukurto padėti lankytojams pabrėžti menininką ir susieti jį su kūryba.

Čia naujovė yra ta, kad šis klastotės yra interaktyvus. Iš viso 45 minučių trukmės vaizdo medžiaga, padalyta į 125 vaizdo įrašus, leidžia daugiau nei 190 000 galimų derinių, atsižvelgiant į lankytojų atsakymus, ir apima orų komentarus. Tai baigiasi tuo, kad Dalí apsisuko ir užfiksavo asmenukę su savo auditorija. Dalí tvirtino, kad vargu ar jis kada nors mirs, ir galbūt jis buvo teisus, nes jis neseniai buvo atgaivintas antrą kartą atliko „Samsung“ dirbtinio intelekto laboratorija Maskvoje, šį kartą mokydama dirbtinį intelektą apie žymius veido bruožus iš tik kelių vaizdų, o ne iš įprastų tūkstančių.

11. Gabono prezidentas rodo raginimus

Bent šiuo metu dauguma „online“ klastotių yra aiškiai pažymėtos ir nėra skirtos niekam apgauti, dažniausiai žaidžiamos juoku, pavyzdžiui, Nicolas Cage'as viskuo, kas tik buvo sukurta , arba dėl nesąžiningos fantazijos - būtent per netikrą įžymybių pornografiją ši technologija pirmiausia įsitvirtino. Tačiau nors nebuvo patvirtinto atvejo, kad kas nors bandytų vieną iš tikrųjų atmesti, vienas atvejis buvo suabejotas.

Niekas nežino, ką daryti iš šio Gabono prezidento Ali Bongo vaizdo įrašo, kuris kurį laiką nebuvo viešumoje, o tai sukėlė spekuliacijas apie jo sveikatą. Šis Naujųjų metų vaizdo įrašo pranešimas turėjo sukelti abejonių poilsiui, tačiau jis pasiteisino dėl opozicijos tvirtinimų, kad tai iš tikrųjų buvo netikras klastojimas - įtarimai, kurie galbūt turėjo įtakos išprovokuojant bandymą įvykdyti karinį perversmą.

Incidentas rodo, kad paprastas faktas, jog egzistuoja klastotės, reiškia, kad bet koks šiek tiek keistai atrodantis vaizdo įrašas gali būti abejotinas. Tai baimė, į kurią žiūrima pakankamai rimtai, kad Pentagono pažangiųjų gynybos tyrimų projektų agentūra investuoja į tyrimus, kaip aptikti klastotes, o Kinija ir JAV diskutuoja apie naujus teisės aktus.

kaip pakeisti spalvą „Photoshop“

12. Billas Haderis perauga į Pacino ir Schwarzeneggerį

„Ctrl Shift Face“ yra vienas iš produktyviausių „YouTube“ suklastotų klastotojų kūrėjų. Jis įtraukė Jimą Carrey į „Šviečiantį“ ir Sylvesterį Stalone'ą į „Terminator 2“, tačiau tai yra vienas klaikiausių jo kūrinių, rodantis, kad buvusi „Saturday Night Live“ žvaigždė Billas Haderis, atrodo, sklandžiai transformuojasi į du aktorius, kuriais jis apsimeta per šį interviu. Pokytis yra toks subtilus, kad beveik nepastebi, jog tai įvyko.

Šiuo metu naudojama programa „DeepFaceLab“ gali pakeisti tik taikinio veidą žemiau kaktos, tačiau Stanfordo universitetas pasiekė visos 3D galvos perkėlimo metodą - „Reddit“ žmonės labai nori šaltinio kodo - o Heidelbergo universitetas pristatė techniką kad leidžia visą šaltinio kūną, kad jis būtų atvaizduotas taikinyje . Mirgėjimas ir iškraipymai kol kas gali būti dovanos dalykas, tačiau tobulėjant technologijoms, kiek laiko dar galėsime pasakyti netikrą iš realybės?

Skaityti daugiau: