Giluminis AI: mūsų distopinis dabartis

Pin
Send
Share
Send

Iš visų gąsdinančių interneto galių labiausiai gąsdina gebėjimas apgauti neįtariančiuosius. „Clickbait“, „Photoshop“ nuotraukos ir melagingos naujienos yra vieni blogiausių pažeidėjų, tačiau pastaraisiais metais atsirado ir naujas potencialiai pavojingas įrankis, žinomas kaip „deepfake“ dirbtinis intelektas (AI).

Sąvoka „gilios klastotės“ reiškia padirbtą, kompiuterio sukurtą vaizdo ir garso įrašą, kurį sunku atskirti nuo tikro, nepakeisto turinio. Tai - nufilmuoti, kas yra „Photoshop“ vaizdams.

Kaip veikia „deepfake“ AI?

Priemonė remiasi vadinamaisiais konkurencijos tinklais (GAN), tai yra technika, kurią 2014 m. Išrado doktorantas Ianas Goodfellowas. studentas, kuris dabar dirba „Apple“, pranešė „Popular Mechanics“.

GAN algoritmas apima dvi atskiras AI, tas, kuris sukuria turinį - tarkime, žmonių nuotraukas - ir priešininkas, kuris bando atspėti, ar vaizdai yra tikri, ar netikri, teigia „Vox“. Kuriantis PG prasideda beveik neįsivaizduojant, kaip atrodo žmonės, ty jo partneris gali lengvai atskirti tikras nuotraukas nuo klaidingų. Tačiau laikui bėgant kiekviena AI rūšis pamažu tobulėja, o galiausiai sukurianti AI pradeda gaminti turinį, kuris atrodo idealiai kaip gyvenimas.

Giluminiai pavyzdžiai

GAN yra įspūdingi įrankiai ir ne visada naudojami kenkėjiškiems tikslams. 2018 m. GAN sukurtas paveikslas, imituojantis olandų „senojo meistro“ menininkų stilių, pavyzdžiui, XVII amžiaus Rembrandtas van Rijnas, „Christie“ aukciono namuose buvo parduotas už neįtikėtiną 432 500 USD.

Tais pačiais metais giluminiai pokalbiai išpopuliarėjo, daugiausia per „Reddit“ vartotoją, kuris vadinosi „giluminiai pokalbiai“, pranešė viceprezidentas. GAN technika dažnai buvo naudojama žymių įžymybių veidams, įskaitant Gal Gadotą, Maisie Williamsą ir Taylorą Swiftą, uždėti ant pornografinių filmų aktorių kūnų.

Kiti GAN išmoko padaryti vieną asmens atvaizdą ir sukurti gana realias alternatyvias to asmens nuotraukas ar vaizdo įrašus. 2019 m. Giluminis faktas galėtų generuoti įžūlius, bet realistiškus „Mona Lizos“ filmus, kalbinančius, judančius ir besišypsančius skirtingose ​​vietose.

Deepfakes taip pat gali pakeisti garso turinį. Kaip šių metų pradžioje pranešė „The Verge“, ši technika gali suskaidyti naujus žodžius į kalbinančio žmogaus vaizdo įrašą, todėl atrodo, kad jie pasakė tai, ko niekada neketino.

Naujojo įrankio diegimo paprastumas gali sukelti bauginančių pasekmių. Jei kas nors bet kur gali sukurti realistiškus filmus, kuriuose rodoma garsenybių ar politikų kalbama, judama ir sakant žodžius, kurių jie niekada nesakė, žiūrovai yra priversti būti atsargesni dėl interneto turinio. Kaip pavyzdį, tiesiog klausykitės prezidento B. Obamos įspėjimo apie „atleistą“ distopinę ateitį šiame vaizdo įraše iš „Buzzfeed“, sukurto naudojant filmo režisieriaus Jordano Peele gilųjį netikrumą.

Pin
Send
Share
Send