Slučaj femicida u Gradačcu ukazao na neefikasnost moderacije sadržaja

Slučaj femicida u Gradačcu ukazao na neefikasnost moderacije sadržaja na mrežama

Slučaj femicida u Gradačcu ukazao na neefikasnost moderacije sadržaja

Snimak ubistva sa Instagrama uklonjen nakon intervencije FUP-a.

foto: Pixabay

Slučaj femicida koji se desio u Gradačcu 11. avgusta pokazao je neefikasnost moderacije sadržaja na društvenim mrežama, naročito u slučajevima live emitovanja. Snimak je postavio Nermin Sulejmanović iz Gradačca kada je na svom profilu na Instagramu javno pokrenuo live stream. Snimak ubistva je i nakon live emitovanja bio dostupan korisnicima približno tri sata, dok nije uklonjen. U tom periodu snimak su lajkale, dijelile i komentarisale stotine, možda i hiljade korisnika mreža.

Korisnici su masovno pozivali na prijavu snimka kako bi bio uklonjen, ali to se nije desilo sve dok nije reagovao ljudski moderator sadržaja. Automatizovana moderacija sadržaja očigledno nije bila dovoljna. 

Saša Petrović, inspektor za sajber kriminal Federalne uprave policije (FUP), bio je na godišnjem odmoru kada je dobio informaciju da postoji snimak koji se treba ukloniti.

„Oko 12 časova, ne mogu se sjetiti u minutu, zaprimili smo informaciju da je potrebno ukloniti video snimak sa društvene mreže Instagram. Dvadeset minuta nakon ostvarivanja kontakta sa administratorom Mete snimak je uklonjen. To nismo mogli dok nismo dobili usmeno odobrenje od tužioca Tužilaštva TK“, rekao je Petrović za Mediacentar Sarajevo.

Pitanja o potezima koje su poduzeli Ministarstvo unutrašnjih poslova (MUP) Tuzlanskog kantona i Kantonalno tužilaštvo Tuzlanskog kantona i zbog čega se dugo čekalo na odobrenje tužioca smo poslali ovim institucijama ali odgovore do objave ovog teksta nismo još dobili. Prema informacijama koje imamo, zahtjeve za uklanjanje sadržaja slao je i MUP Tuzlanskog kantona ali moderator kompanije Meta, u čijem vlasništvu su Facebook i Instagram, na njih nije reagovao. 

„Mi smo bili u komunikaciji sa MUP-om TK, oni su poslali upit prema Meti međutim nije bilo odgovora. Ja sam imao mogućnost da nazovem Metu direktno telefonom, nazvao sam. Tamo je bilo oko 7:30, čovjek koji tamo radi je za par minuta sjeo za sistem, uzeo podatke koji su potrebni i koje mi moramo dostaviti Meti – zašto nam to treba, zašto je to bitno. I za 20 minuta dok je to prošlo, snimak je uklonjen“, govori Petrović za Media.ba.

Sve ovo govori da mehanizmi Mete, ali i drugih mreža nisu dovoljno dobri i da je potrebno mnogo vremena dok se sadržaji uklone.

FUP, dodaje Petrović, ima odličnu saradnju sa Metom, koja se dnevno suočava sa velikim brojem hitnih zahtjeva za uklanjanje sadržaja.

„Sve policijske agencije u Bosni i Hercegovini (BiH), regionu i svijetu imaju mogućnost pristupa Metinom dijelu platforme koji se odnosi na policijske agencije gdje je jasno propisano postupanje u redovnoj proceduri, načine odgovora i u hitnim slučajevima poput ovog“, dodaje Petrović.

Nakon što je dobio odobrenje tužioca, procedura unutar FUP-a, dodaje, nije trajala duže od deset minuta.

Informacijski ekspert i viši asistent na katedri za informacijske nauke Filozofskog fakulteta Univerziteta u Sarajevu Feđa Kulenović za Media.ba kaže da su mehanizmi za uklanjanje sličnih sadržaja efikasni onoliko koliko su to kompanije u mogućnosti da učine efikasnim s obzirom na omjer zaposlenih pogotovo na moderaciji sadržaja.

“Broj članova na svakoj mreži nikako nije dobar i ne odgovara potrebama za moderacijom. Što se tiče konkretnog potresnog slučaja na koji se referiraš rekao bih da je tri sata malo s obzirom na sve probleme i činjenicu da je samo Meta otpustila u posljednje vrijeme 20 hiljada radnika/ca. To je dokaz da mehanizmi nisu dovoljno efikasni i da se ništa nije promijenilo od 2019. godine kada smo imali obećanja da će se stvari poboljšati nakon slučaja live streama masovnih rasno motiviranih ubistava u Christchurchu na Novom Zelandu”, kaže Kulenović.  

Algoritmi za prepoznavanje nasilnog sadržaja nedovoljno razvijeni

Činjenica da snimak femicida nije automatski uklonjen pokazuje da automatizovano uklanjanje sadržaja nije dovoljno razvijeno i efikasno.

Koordinatorica istraživanja u Udruženju “Zašto ne” Tijana Cvjetićanin kaže da je u uklanjanju štetnih ili nasilnih sadržaja bitno da postoje ljudski kontakti koji govore lokalni jezik zemlje u kojoj posluju, odnosno u kojoj je sporni snimak objavljen. Bitna je brzina, ali i humani pristup koji može procijeniti šta se dešava. 

“Ono što je moj lični utisak je da takva dinamika nije moguća sa algoritmima i automatizovanim procesima. Iako je rad algoritama poslovna tajna online platformi i kao takav je vrlo netransparentan, tako da se ne zna na koji način se određeni sadržaji automatski uklanjaju ili označavaju kao uznemirujući, prilično je jasno da algoritam nije bio u stanju da proceni da je ono što je emitovano u petak ujutru bio jedan strašan, potresan i uznemirujući snimak krivičnog dela ubistva koje se dešavalo uživo”, kaže Cjetićanin za Media.ba. 

Jedan od signala za prepoznavanje takvih sadržaja trebalo bi da bude i broj prijava koje dolaze od korisnika. U slučaju snimka iz Gradačca se i to desilo budući da su korisnici mreža pozivali na prijavljivanje sadržaja, ali je on bio i dalje dostupan sve dok inspektori FUP-a nisu zatražili ljudsku reakciju. 

“Tri sata je užasno dugo da takav snimak stoji dostupan svima. To znači da su ga za sve to vreme mogli gledati i deca, maloletnici, ranjive grupe. Tri sata je previše”, kaže Cvjetićanin. 

Inspektor FUP-a pojašnjava da kompanija Meta ima svoje algoritme koji prepoznaju štetan sadržaj, ali su ti algoritmi više razvijeni za seksualno eksplicitni sadržaj.

„Nego za ovakav nasilan. Imaju svoje moderatore koji rade zahtjeve i ručnu pretragu. Sad koliko ima korisnika Meta i koliko se to može pratiti. Mi imamo mehanizme za zaštitu djece i mehanizme za postupanje u ovim slučajevima. Ali nemamo algoritme odnosno softvere koji bi mogli prepoznati ovakav sadržaj. Vrlo teško je i programirati, napisati program za takve sadržaje. Može se za seksualno eksplicitne, veći dio fotografije je nago tijelo i slično, ali za nasilan sadržaj je jako teško automatizovati taj proces. Više je ručni nego automatski“, govori Petrović.

Kulenović s druge strane vjeruje da je automatizacija ovih procesa precijenjena i pokazuje se kao nemoguća s obzirom da postoji čitav niz izuzetaka.

“U situacijama kada govorimo o prikazivanju nasilja u umjetnosti ili historijskih događaja koji su izazivali proteste zbog cenzurisanja na ovim, što je važno reći, prostorima u privatnom vlasništvu”, kazao je.

Upitan da li mreže imaju dovoljno uposlenika koji bi reagovali u slučajevima kontaktiranja, prijava i sličnih radnji koje nisu automatizovane, Kulenović odgovara:

“Kratko i jasno - nemaju. Meta upravlja vjerovatno sa najviše korisnika na svoje tri mreže, sada sa Threads četiri. Na milijarde korisnika dolazi otprilike ukupno 60.000 zaposlenih od kojih se vrlo mali broj bavi moderacijom. Pokušaj automatizacije ovih procesa izaziva mnogo problema koje Meta rješava nekada brzo a nekada sporije, ali su svi ti algoritmi jako 'osjetljivi' i reaguju na male situacije teksta (koji je mnogo lakše moderirati automatski) dok na live video nemaju velikog uticaja osim ako neko u naslov ne doda neku riječ koja će pokrenuti sistem”, govori Kulenović.

Kaže da automatsko ukidanje ovakvog sadržaja ima efekta u situacijama kada dođe do masovnog prijavljivanja sadržaja, ali s obzirom da se ovakve situacije mogu upotrijebiti i za gušenje slobode izražavanja postaje više nego očigledno da to nisu efikasna rješenja.

“Ipak, moram reći da se ovdje radi o situacijama koje je bez ozbiljnog upliva u narušavanje privatnosti i kreiranja potpuno pogrešnih rješenja nije moguće efikasno riješiti. Sva rješenja koja bi postojala bi sigurno napravila više štete nego koristi. Čini mi se da je jedino rješenje da počnemo preispitivati naš odnos sa ovim mrežama i njihovim privatnim prostorima”, smatra Kulenović.

TikTok i Telegram najneodgovornije mreže

Nasilan i uznemirujući sadržaj može ostaviti brojne posljedice i traumatska iskustva za hiljade korisnika, ali i potaći pojedince da čine slična djela.

Dodatni problem jeste i brzina širenja takvog sadržaja. Tokom tri sata dok je bio dostupan na mrežama korisnici su preuzimali snimak i postavljali ga online, bilo na Metine platforme, gdje su nakon inicijalne reakcije ipak bivali brže uklonjeni, ili na mreže poput TikToka i Telegrama. 

“To su platforme koje imaju standardno lošije mehanizme za reakciju na takve stvari, što smo mogli videti i na nedavnom primjeru masovnog ubistva u školi Vladislav Ribnikar. Tada su, veoma neodgovorno, brojni mediji u regiji objavljivali ime i prezime, slike i snimke na kojima se videlo lice maloletnog počinitelja višestrukog ubistva. Takvi su materijali zatim iskorišteni, recimo, na TikToku, gde je veliki broj uglavnom tinejdžera i adolescenata - i to ne odavde nego i iz raznih udaljenih krajeva sveta - napravio profile koji su izgledali doslovno kao klubovi obožavatelja nekoga ko je izvršio višestruko ubistvo”, govori Tijana Cvjetićanin.

Dijelovi drugog live snimka, koje je Sulejmović postavio a u kojem govori o zločinu koje je počinio, i dalje su dostupni na TikToku, a snimak ubistva dostupan je na Telegramu. U Telegram grupi „LEVIJATAN –Bez cenzure“ necenzurisani snimak ubistva pogledalo je blizu 80.000 osoba.

Telegram i TikTok su mreže sa kojima je saradnja teža i policijskim agencijama.

„Ta saradnja ide teže nego sa Metom, ali funkcioniše. Sa TikTokom funkcioniše, ali mnogo teže nego sa Metom. Sa Telegramom je vrlo teško“, kaže za Media.ba inspektor Saša Petrović.

Kulenović kaže kako su aplikacije za masovno mrežno komuniciranje kao što je Telegram, WhatsApp i Viber veoma loše u moderaciji sadražaja. WhatsApp je, govori, bolji jer je u vlasništvu Mete, ali to ne znači da je odličan.

“Oni su naprosto morali reagovati na neke situacije u svijetu gdje je WhatsApp bio u centru širenja dezinformacija i poticanja na nasilje. Telegram je loš. Prije svega njihov proces prijavljivanja je po mom mišnjenju skoro pa nepostojeći. Kada prijavite neku objavu u nekoj opskurnoj grupi ne dobijate nikakav feedback, a materijal ostaje dostupan i dalje. TikTok je isto tako loš po ovom pitanju”, govori Kulenović.

Dodaje da kompanije ne ulažu dovoljno resursa u moderaciju, ali da je i efikasna moderacija sadržaja u određenim slučajevima jednostavno nemoguća, osim ako se ne uđe u ozbiljno ograničavanje slobode govora što kompanije ne žele, ne zbog zaštite slobode govore, već jer bi se na taj način gubili korisnici a time i novci.

___

Želite sedmični pregled vijesti, analiza, komentara i edukacija za novinare u Inboxu Vašeg e-maila? Pretplatite se na naš besplatni E-bilten ovdje.