14. dec 2018.

Lažni video-sadržaji: Više ne možemo verovati svojim očima

Razvoj veštačke inteligencije omogućio je pojavu videa za koje je danas i profesionalcima nemoguće da prepoznaju da li su lažni. Posledice mogu biti zastrašujuće: u trenutku kada lažni snimci počnu da se pojavljuju na televizijama, otvoriće se ogroman prostor za predstavljanje istine kao laži i laži kao istine, i publika će izgubiti poverenje u medije

Efikasni mehanizmi za borbu protiv lažnih vesti (fake news) još nisu pronađeni, a suočavamo se sa još većim problemom –  sa lažnim video-sadržajima (deep fake video).

Građani Srbije se sa lažnim vestima najčešće sreću u novinama, na onlajn portalima i na društvenim mrežama. Ponekad ih, iz usta spikera, čuju i na TV-u ili na radiju. Ali su, do sada, bar bili sigurni u istinitost video-zapisa. Posebno kada se radi o prenosima uživo. Verovali su da tu ne postoji mogućnost prevare!

Tako su mislili i građani Belgije kada su u maju ove godine na onlajn portalu jedne političke partije naišli na video-poruku koju im je, povodom globalnog sporazuma za borbu protiv klimatskih promena, uputio američki predsednik Donald Tramp.

U video-obraćanju belgijskoj javnosti, titlovanoj na flamanski, američki predsednik Tramp poručuje:

Dobro je poznato da publika ima skoro apsolutno poverenje u sve što vidi na TV ekranima, što je, pored ostalog, i posledica nadmoći vizuelne percepcije, koju ilustruje i izreka – jedna slika vredi hiljadu reči

„Kao što znate, ja sam imao petlju da se povučem iz pariskog Sporazuma o klimatskim promenama. To treba da uradite i vi. Zato što je ono što vi sada radite u stvari gore od onoga što sam ja uradio. Vi ste potpisali Sporazum, a sada ne radite ništa! Samo blablabla…“

Na kraju video-poruke Tramp kaže:

„Svi znate da su klimatske promene lažne, baš kao što je i ovaj video.“ Međutim, ove reči nisu prevedene sa engleskog.

Belgijska javnost je burno reagovala. Usledili su brojni komentari i negodovanje ljudi koji nisu shvatili da se radi o lažnom videu. A i kako bi, kada su svojim očima videli kako im se obraća Donald Tramp, isti onaj koga su bezbroj puta gledali na domaćim i stranim TV kanalima.

Ovaj lažni video napravljen je na zahtev lokalne Flamanske socijalističke stranke sa namerom da se belgijsko društvo podstakne na debatu o klimatskim promenama i na delovanje. Predstavnici ove flamanske partije za Politiko (Politico) kažu da nisu želeli da prevare svoje pristalice i da su verovali da će publika, na osnovu kvaliteta video-izjave i pokreta Trampovih usana, prepoznati da se radi o montaži.

„Deep fake“ tehnologija

Za pravljenje ovog lažnog videa angažovan je TV studio koji poseduje „deep fake“ tehnologiju, novu opasnosti koja preti da dodatno uruši poverenje u istinitost medijskih sadržaja.

Kovanica „deep fake“ nastala je od izraza „deep learning“ – duboko učenje (učenje mašina uz pomoć velikog broja podataka) i „fake“ – falsifikat. Odnosi se na proizvode veštačke inteligencije, koja je u stanju da kreira nove uverljive fiktivne sadržaje na osnovu snimka nekog stvarnog događaja ili osobe.

Moguće je napraviti bilo čiju repliku i u njena usta staviti reči koje ta osoba nikada nije izgovorila. Moguće je lažirati ne samo izjave već i ponašanje neke osobe. Ova tehnologija je i postala poznata široj javnosti kada su se pojavili pornografski filmovi u kojima su navodno učestvovale poznate ličnosti.

Dobro je poznato da publika ima skoro apsolutno poverenje u sve što vidi na TV ekranima, što je, pored ostalog, i posledica nadmoći vizuelne percepcije, koju ilustruje i izreka – jedna slika vredi hiljadu reči

Dakle, „deep fake“ tehnologija omogućava da se prikažu ljudi kao da govore ono što nikada nisu izgovorili i da čine ono što nikada nisu učinili. Zastrašujuće, zar ne?

Za proizvodnju lažnog klipa potrebno je što više originalnih snimaka osobe koja će biti glavni akter, kako bi veštačka inteligencija mogla dobro da prouči obrazac njenog govora, mimiku i pokrete. Kada mašina savlada gradivo, bilo koja druga osoba može uzeti obličje glavnog aktera i „iz njegovih usta“ izgovarati izmišljene rečenice.

Kako to funkcioniše u praksi savršeno je pokazano u video-klipu američkog producenta i glumca Džordana Pila (Jordan Peele). On je u aprilu ove godine napravio video u kome uz pomoć lika Baraka Obame upozorava javnost na opasnosti koje nosi „deep fake“ tehnologija.

S obzirom na to da se radi o veštačkoj inteligenciji koja znatno brže uči od čoveka, ova tehnologija svakoga dana napreduje, pa je tako sada, na kraju 2018, teže otkriti lažne video-sadržaje nego što je to bilo početkom ove godine. Predviđa se da će uskoro i stručnjaci imati teškoće u prepoznavanju lažnih video-klipova.

Zastrašujuće posledice

Filmska industrija će od ovakve tehnologije sigurno imati koristi, ali se postavlja pitanje kako se zaštiti od zloupotrebe u elektronskim medijima.

Dobro je poznato da publika ima skoro apsolutno poverenje u sve što vidi na TV ekranima, što je, pored ostalog, i posledica nadmoći vizuelne percepcije, koju ilustruje i izreka – jedna slika vredi hiljadu reči.

[povezaneprice]

U doba analognih medija, činjenica da je nešto prikazano na televiziji predstavljala je ključnu potvrdu da se to zaista i dogodilo. Bezbroj puta smo čuli da neko kaže: „Jeste, dogodilo se, video sam na televiziji!“

Ako „deep fake“ sadržaji počnu da se pojavljuju na TV ekranima, uloga elektronskih medija da informišu u interesu javnosti biće dovedena u pitanje. U takvoj situaciji publika će početi da gubi poverenje u medije, što će otvoriti širok prostor za manipulaciju i za predstavljanje istine kao laži i laži kao istine.

Moguće je napraviti bilo čiju repliku i u njena usta staviti reči koje ta osoba nikada nije izgovorila. Moguće je lažirati ne samo izjave već i ponašanje neke osobe. Ova tehnologija je i postala poznata široj javnosti kada su se pojavili pornografski filmovi u kojima su navodno učestvovale poznate ličnosti

Lažne izjave svetskih lidera, lokalnih političara, javnih ličnosti plasirane preko malih ili velikih ekrana mogle bi u najmanju ruku izazvati zabunu i nevericu, ali i strah, nasilje, mržnju, sukobe i ratove, i biti pretnja sigurnosti i bezbednosti.

I dok, s jedne strane, među istraživačima i kreatorima softvera raste uzbuđenje zbog razvoja ovakve tehnologije, s druge strane, akademska zajednica u SAD izražava ozbiljnu zabrinutost i upozorava da se mora voditi računa o širim društvenim i političkim posledicama ovakvih pronalazaka. Poziva na što širu društvenu debatu u koju bi se uključili pravnici, sociolozi, profesori kompjuterskih nauka, filozofi, etičari – od kojih se posebno očekuje da ponude odgovore na brojna pitanja koja nameće razvoj veštačke inteligencije.

Američki profesori Robert Česni (Robert Chesney) i Danijel Sitron (Danielle Citron) u radu objavljenom jula 2018, pod nazivom „Deep fakes: Novi izazov za privatnost, demokratiju i nacionalnu bezbednost“ analiziraju uzroke i posledice ovog fenomena i upozoravaju da će ova tehnološka mogućnost, pored neznatne dobrobiti, naneti i veliku štetu društvu, između ostalog i daljim urušavanjem istine u javnom prostoru.

„Pojedinci i kompanije će se suočiti sa novim oblicima eksploatacije, zastrašivanja i sabotaže. Rizici za našu demokratiju i nacionalnu bezbednost takođe su veliki“, ocenjuju autori i ukazuju da postojeći zakoni i javne politike nemaju adekvatne alate za sprečavanje negativnih posledica korišćenja „deep fake“ tehnologije.

Kvalitetni mediji protiv lažnih medijskih sadržaja

Stručnjaci smatraju da je o ovom problemu potrebno što više govoriti kako bi javnost postala svesna svih opasnosti koje nosi ovaj fenomen.

Kao i u borbi protiv lažnih vesti, ključnu ulogu imaju kvalitetno novinarstvo i kredibilni mediji, koji na prvom mestu moraju da osiguraju pouzdane informacije i medijske sadržaje, a zatim da edukuju publiku kako da prepozna lažne video-sadržaje i kako da reaguje na njih. Između ostalog, preporučuje se da mediji, ali i društvene mreže, jasno naznače na koji način su video-sadržaji proizvedeni, kako bi publika mogla da bude sigurna u njihovu istinitost.

I Džordan Pil na kraju lažnog videa sa Obamom kaže: Ovo su opasna vremena. Da bismo išli napred, moramo biti veoma oprezni u proceni čemu verujemo na internetu. Vreme je da se oslanjamo na proverene izvore vesti… U informativnoj eri to će odrediti da li ćemo preživeti ili ćemo živeti u nekom paklu.

Ostavljanje komentara je privremeno obustavljeno iz tehničkih razloga. Hvala na razumevanju.

Send this to a friend