30. apr 2021.

Jillian C. York: “Granica između moderacije i cenzure sve je više zamućena”

Uređivanje sadržaja na društvenim mrežama se u ranim danima obavljalo od strane zajednice, volontera ili unutar samih kompanija. Danas je sloboda govora na društvenim mrežama predmet kompleksnog sistema upravljanja. Veliki dio javnog govora je regulisan od strane privatnih korporacija.

O ovom kompleksnom pitanju razgovarali smo sa Jillian C. York, direktoricom odjela za slobodu govora pri Electronic Frontier Foundation (EFF), koja je o ovoj temi već govorila na webinaru posvećenom aktuelnim temama u medijskoj pismenosti organizovanog od strane projekta SEENPM članica, Mediji za građane – Građani za medije.

Šta je danas moderacija sadržaja?

Moderacija sadržaja je metoda koju tehnološke kompanije koriste za upravljanje sadržajem – postovima, slikama, videima i tako dalje – koje korisnici postavljaju na njihove platforme. Ovo podrazumijeva veliki broj stvari, od korištenja ljudskih moderatora sadržaja, kako bi se provjerili sadržaji koji su prijavljeni od strane korisnika da krše pravila te platforme, do korištenja automatizacije kako bi se proaktivno ograničili sadržaji određenog tipa, kao što su pornografija ili terorizam. Pored toga, vlade mogu podnijeti zahtjeve kroz formalne ili neformalne (vansudske) mehanizme – ovo se može obraditi kroz već pomenute procese ili se time bave posebni timovi koji razmatraju sudske dokumente i dokumente vezane za provedbu zakona.

Možete li nam reći nešto o primjerima modela iz Sjedinjenih Američkih Država, Europske unije i drugih zemalja?

Različite zemlje pristupaju ograničavanju sadržaja na različite načine. Naprimjer, Njemačka ima zakon – Zakon o provedbi na mrežama  ili NetzDG – koji zahtijeva od kompanija da ograniče pristup nelegalnom sadržaju unutar granica države u roku od 24 sata od trenutka kada je sadržaj prijavljen. Druge zemlje, uključujući neke manje demokratske zemlje kao što je Turska, implementirale su slične zakone u posljednjih nekoliko godina.

U Sjedinjenim američkim državama postoji manje restrikcija u vezi toga šta vlada može da zabrani, ali zakon iz 2018. godine, zvan SESTA-FOSTA, imao je zabrinjavajući efekat na to šta korisnici mogu reći u online sferi. Zamišljen da zaustavi online aktivnosti vezane za seksualnu trgovinu ljudima, zakon je rezultirao time da kompanije sve više zabranjuju seksualni sadržaj i nagost iz straha da ne prekrše ovaj zakon.

Ostale zemlje, naročito one autoritativnije, obično jednostavno zahtijevaju od kompanija da uklone sadržaj ili lokalno ograniče pristup istom. Dok neke zemlje to rade preko sudskih naredbi ili provedbom zakona, druge jednostavno koriste potajne kanale komunikacije sa kompanijama da bi ih prisilili da djeluju, ponekada uz prijetnje lokalnom blokadom.

Šta nam možete reći o današnjoj moderaciji sadržaja kada su u pitanju govor mržnje, esktremizam ili uznemiravanje ili dezinformacija? Gdje je linija razgraničenja između moderacije i cenzure?

Linija razgraničenja između moderacije i cenzure je sve više zamućena. Iako kompanije iz SAD-a imaju pravo, kroz Prvi amandman Ustava, da ograniče razne tipove izražavanja prema vlastitom nahođenju, tokom godina su prešle sa promocije slobode govora ka sve većem ograničavanju onoga što ljudi smiju reći ili učiniti. Nešto od ovoga je rezultat promjena u govornim normama, dok su ostala ograničenja nastala kao rezultat vanjskog pritiska od strane javnosti ili vlada.

Pored toga, američke kompanije su oslobođene odgovornosti za većinu ovih odabira od strane zakona poznatog kao “Section 230” ili “CDA 230”. Međutim, obavezni su da uklanjaju određene ilegalne sadržaje, kao što je prikazivanje seksualnog zlostavljanja djece.

U Sjedinjenim Američkim Državama, koncept “govora mržnje” nije prepoznat u zakonu. Zbog toga kompanije moraju same da odrede šta predstavlja govor mržnje i odluke vezane za tu politiku se donose prema potrebi, uz česte promjene pravila. Problem vezan za moderaciju govora mržnje je taj da je, čak i kada postoje jasno definisana pravila, veoma teško odrediti pravi razmjer i automatizacija nema tu sposobnost detekcije nijansi koja je potrebna da bi se ispravno reagovalo. Zbog toga, restrikcije govora mržnje često rezultiraju u uklanjanju neproblematičnog sadržaja, kao što su satira, komedija ili protugovor.

Pitanje ekstremizma je nešto drugačije, ali također problematično. U SAD-u postoje zakoni kojima se platformama ograničava hosting sadržaja određenih grupa koje su obilježene kao strane terorističke grupe od strane State Department-a. Međutim, kada je u pitanju domaći ekstremizam, ne postoje takve restrikcije, tako da je, opet, kompanijama ostavljeno da odluče koje grupe su ekstremističke. I u ovom slučaju, pritisak od strane raznih vanjskih (nekada i unutrašnjih) aktera može rezultirati donošenjem nedosljednih odluka u vezi ovog tipa govora.

Prema Vašem mišljenju, koji su to modaliteti transparentnosti koji bi bili korisni kada je u pitanju moderacija sadržaja?

Postoji niz stvari koje bi kompanije trebale činiti, ali ne čine. Prvo, trebale bi objavljivati stvari kao što su stopa greške u moderaciji sadržaja, kako bi korisnici znali koliko se prave greške u određenim kategorijama. Također bi trebali detaljno obavještavati korisnike o pravilima koja su prekršili i o posljedicama prekršaja, kao i o načinima ulaganja apela u slučajevima kada dođe do greške.

Sve je više zahtjeva da kompanije budu transparentne u vezi stvari kao što su broj moderatora koji rade na određenom jeziku, u određenoj zemlji ili regionu.

Sve ove stvari su bitne i smatram da bi kompanije trebale ulagati više resursa da ih ostvare.

Koji napori se trenutno ulažu kako bi se regulisale velike međunarodne platforme?

Postoji niz napora koji se trenutno globalno ulažu da se regulišu platforme, mnogi od njih su poprilično problematični (kao što su novi zakoni u Turskoj i Indiji), ali postoje dva ključna napora koja želim da istaknem.

Prvi je da u Sjedinjenim Američkim Državama imamo niz prijedloga zakona kojima se žele povući zaštite od odgovornosti koju daje Section 230. Oni su različitog oblika, ali su usmjereni ka tome da se kompanije drže odgovornima za sadržaj koji postavljaju njihovi korisnici. Značajno je da Facebook podržava neke od ovih prijedloga, što je zabrinjavajuće, u prvom redu zato što kompanija poput Facebooka raspolaže resursima da moderira kako god to vlada zahtijevala, dok manje kompanije ne raspolažu. Ovo će se negativno odraziti na konkurenciju, što će korisnicima smanjiti mogućnost izbora o tome gdje da učestvuju na internetu.

Drugi niz napora koje želim istaknuti je na nivou Europske unije. Najprije Zakon o digitalnim uslugama: ovaj zakon ima nekoliko komponenti, ali one koje mene najviše raduju bi trebale prisiliti kompanije da preuzmu više odgovornosti kroz transparentnost i apele koje sam spomenula ranije. Više je zabrinjavajuća, međutim, Regulacija terorizma, o kojoj se treba glasati naredne sedmice. Ovaj zakon bi tražio od kompanija da odgovore na prijave terorizma na njihovim platformama u roku od samo jednog sata. Mislim da bi takav uzak vremenski okvir imao zabrinjavajući uticaj na govor, uključujući protugovor, napore da se dokumentuje kršenje ljudskih prava, te umjetnički izražaj, uključujući satiru.

Ostavite komentar

Vaša adresa e-pošte neće biti objavljena. Neophodna polja su označena *

*

Na našem sajtu biće objavljeni svi pristigli komentari, osim komentara koji sadrže govor mržnje, psovke i uvrede ili nisu u vezi sa temom članka koji se komentariše. Govor mržnje definisan je Zakonom o javnom informisanju, koji u članu 38. kaže: „Zabranjeno je objavljivanje ideja, informacija i mišljenja kojima se podstiče diskriminacija, mržnja ili nasilje protiv lica ili grupe lica zbog njihovog pripadanja ili nepripadanja nekoj rasi, veri, naciji, etničkoj grupi, polu ili zbog njihove seksualne opredeljenosti, bez obzira na to da li je objavljivanjem učinjeno krivično delo“. Pre nego što budu objavljeni, komentari moraju biti odobreni od strane naših moderatora, pa vas molimo za malo strpljenja.

Send this to a friend