Mona Lisa je obnovljena u Moskvi uz pomoć umjetne inteligencije. Što je opet zabrinuto na Zapadu?

Programeri iz moskovskog Centra za proučavanje umjetne inteligencije Samsung su stvorili neuralnu mrežu za stvaranje videozapisa iz statičnih slika. Tim ruskih IT stručnjaka na čelu s Jegorom Zakharovom pokazao je to na primjeru Mona Lise i drugih poznatih umjetničkih djela. Nakon vožnje kroz neuronsku mrežu, Gioconda je oživjela. Izgleda nespretno, kao u različitim programima za uređivanje videozapisa, ali vrlo realistično.

Mona Lisa, animirana neuronskom mrežom

Uz Da Vinci-jevo remek-djelo, ruski IT stručnjaci oživjeli su portrete Salvadora Dalija, Einsteina, djevojke s bisernom naušnicom Vermeera. Također su koristili neuronsku mrežu za slike poznatih slavnih osoba. Kao iu slučaju slika, pokazalo se vrlo pouzdano.

Tehnologija, koja je dobila primarno ime Few-Shot (i neformalno "Talking heads"), radi samo s glavama objekata na slikama. Kreatori su detaljno objasnili njegov mehanizam. Istina, ljudi koji ne razumiju algoritme AI, malo je vjerojatno da će nešto razumjeti. Ukratko, Few-Shot objedinjuje nekoliko neuralnih mreža odjednom. Čitamo parametre lica, drugi ih podešavamo za promjenu kuta, treći melje rad prethodnih.

Važna razlika između neuronske mreže i programa za uređivanje videozapisa je da ovdje nema niti jednog okvira. Umjetna inteligencija analizira samo slike željenog objekta, a ne slične. Što je više takvih slika, više su šanse da se napravi najrealniji video.

Sadržaj:

    O čemu se brinu zapadni znanstvenici?

    Razvoj ruskih znanstvenika dobio je široko rasprostranjeno izvještavanje u stranim medijima, ali ne onako kako bismo željeli. Novinari BBC-a nazvali su New-Shot neuronsku mrežu "posljednjom iteracijom takozvane Deepfake tehnologije". To je neuronska mreža koju je stvorio anonimni korisnik Reddit, koja vam omogućuje ugraditi lica ljudi u okvire iz videozapisa. Tvorac je ismijavao neke slavne osobe i javne ljude. Na primjer, Scarlett Johansson zaglavila je lice glumice iz pornografije. Film s Donaldom Trumpom u naslovnoj ulozi i postao je virusan.

    G. Bean kao Donald Trump

    U tehnološkom pregledu, ruski IT stručnjaci ističu da Few-Shot može biti koristan u industriji igara za stvaranje realističnih avatara. Ali ne vjeruju im svi. Tako je doktor pravnih znanosti sa Sveučilišta u Teksasu Robert Chesney rekao da se tehnologija Few-Shot može koristiti zlonamjerno, jer proširuje mogućnost stvaranja lažnih videozapisa. Gotovo svaka osoba na internetu ima jednu ili dvije prave fotografije. To je sasvim dovoljno za stvaranje lažnog sadržaja, s kojim se društvene mreže i mediji žestoko bore u posljednje vrijeme.

    Ovaj videozapis nisu stvorili ruski, već azijski programeri. Stvaratelji ne otkrivaju detalje tehnologije zbog straha da se njihov razvoj može koristiti za loše svrhe.

    Zapadni stručnjaci skreću pozornost na nesavršenost algoritama koji bi trebali razlikovati lažne videozapise od stvarnih. Isti Chesney navodi kao primjer virusni video uz sudjelovanje kongresmena Nancy Pelosi, jednog od najaktivnijih protivnika politike Donalda Trumpa. U videu, gospođa Pelosi izgleda zamjetno. Nakon toga, ispostavilo se da je ovo varka i da je stvorena čak i bez sudjelovanja AI - kreatori su jednostavno koristili program da uspore videozapis. Ali ako algoritmi društvenih mreža, gdje se ovaj video aktivno širio, nisu razlikovali lažne, onda što je s naprednijim tehnologijama, kao što je Few-Shot?

    Potrebno je odati počast zapadnim medijima - njihov položaj stvorio je kratkoročni HYIP oko neuronske mreže. Inače bi mnogo manje ljudi saznalo za razvoj. Ali teško je reći kako će buka utjecati na napredak AI tehnologija.

    Pogledajte videozapis: Oko: Dan kad je pobeđen Hitler (Studeni 2019).

    Loading...

    Ostavite Komentar