Nepouzdani AI alati za otkrivanje lažnog sadržaja

Nepouzdani AI alati za otkrivanje lažnog sadržaja
AI može otkriti sumnjiv sadržaj, ali odluku o istinitosti donose ljudi.
Ilustracija: Said Selmanović
Nova digitalna era i napredak tehnologija umjetne inteligencije (AI) donose brojne benefite i olakšanja u svakodnevnom obavljanju novinarskih poslova. Nažalost, AI ima i svoje loše strane, a to je lakoća kreiranja lažnih, a istovremeno veoma realističnih sadržaja, vijesti, fotografija, videa, pa je teško razlikovati umjetno od stvarnog, istinu od laži.
Zato medijski profesionalci moraju širom otvoriti oči kako bi identificirali prevare i spriječili nastanak štete. Potražili smo odgovore na pitanje koliko im u tome pomaže AI.
Borislav Vukojević, viši asistent na Odsjeku za komunikologiju Fakulteta političkih nauka Univerziteta u Banjoj Luci, posljednje dvije godine prati razvoj AI-potpomognutog fact-checkinga te njegovu primjenu u nekim velikim svjetskim medijima.
“AI može ubrzati obradu sirovih podataka i otkrivanje ‘sumnjivih’ tvrdnji, ali u ishodu ne može samostalno donijeti konačnu odluku o istinitosti – i dalje je neophodan ljudski ekspert koji će provjeriti i kontekstualizirati nalaze”, kaže Vukojević.
Ne mogu priuštiti dobre alate
Upravo to je slučaj na hrvatskom portalu Faktograf. Redakcija koristi alate AI kao početni indikator da bi neki sadržaj mogao biti lažan, a onda slijedi provjera.
“Kada nam alati ukažu da je veća vjerovatnoća da se radi o AI generiranom sadržaju, onda mi krećemo u pokušaj detektiranja ko je prvi objavio snimku ili fotografiju. Često onaj prvi izvor napiše da se radi o AI generiranom sadržaju, ali se dalje širi bez te oznake. Kod snimki pokušamo pronaći onu koja je poslužila za generiranje. Tako se može utvrditi da, primjerice, političar u nekom intervju nije rekao ono što govori u AI snimci. Također, tražimo potvrde osoba ili institucija da li je ono što smo vidjeli i čuli zaista bilo tako”, pojašnjava Ivica Kristović, zamjenik glavne urednice Faktografa.
Vesna Kerkez, urednica na web portalu Mondo iz Banje Luke, smatra da bi bilo korisno na nivou redakcija organizirati obuke i kupiti alate koji mogu pomoći u otkrivanju dezinformacija.
“Mnogo bi nam olakšalo posao, posebno u ovo vrijeme pseudo-istine”, kaže Kerkez, koja svakodnevno koristi AI alate, ali u druge svrhe, za struktuiranje teksta i pretragu. Ima povjerenja, ali uz dozu opreza.
Vukojević naglašava da većina medija u BiH nema resurse za vlastito istraživanje i razvoj ili licence za komercijalne AI‑platforme. “Faktografija je još uvijek ručna, a lokalni portali najčešće ne koriste ni besplatne API‑je poput ClaimBustera”, govori ona.
Potvrđuje ovo i Enes Hodžić, novinar Balkanske istraživačke mreže (BIRN) BiH. Navodi da su alati bazirani na vještačkoj inteligenciji već široko dostupni, ali oni najbolji, ipak, najčešće ostaju izvan dometa bh. medija. Pogotovo onih koji se bave dnevnim izvještavanjem, jer zahtijevaju i vrijeme i novac za korištenje.
Lokalni kontekst je nepoznanica za AI
“Razvoj svih AI alata je u povoju, pa tako i onih koji bi mogli biti korisni za provjeru činjenica. Mi u BiH, kao i u mnogo čemu drugom, kasnimo za razvijenim zemljama zbog različitih ograničenja. Ipak, postoje brojni profesionalci koji pokušavaju na različite načine vlastitim naporima donijeti dašak AI u fact-checking zajednicu u BiH. Nažalost, zbog raznih ograničenja, ti alati se ne koriste aktivno na području naše zemlje”, kaže Hodžić.
Navodi i neke primjere, poput PimEyes alata, koji se koristi za prepoznavanje lica, posebno u istraživačkim medijima.
“Ali je njegovo korištenje geografski ograničeno i nije moguće u BiH. Neki drugi su neupotrebljivi jer su bazirani na engleskom jeziku ili su, jednostavno, preskupi za svakodnevnu upotrebu”.
U otkrivanju dezinformacija BIRN se u najvećoj mjeri oslanja na rad autora i istraživača, jednako kao i Rakrinkavanje. Radi se o platformi za provjeru tačnosti informacija u javnom prostoru u našoj zemlji.
“Počeli smo koristiti neke alate za provjeru sadržaja za koje postoji sumnja da su napravljene uz pomoć umjetne inteligencije, ali ljudski faktor je i dalje ključan u analizama koje radimo. Posebno kada su u pitanju suptilnije forme manipulisanja činjenicama i narativa izgrađenih na poluistinama, te kada je bitan lokalni kontekst. Dakle, AI alati za sada su ‘ispomoć’ novinarima i urednicima”, kaže glavni urednik portala Raskrinkavanje Rašid Krupalija.
Nesvjesni, a ne zlonamjerni
Doc. dr Senka Krivić, docentica na Elektrotehničkom fakultetu Univerziteta u Sarajevu, također ističe potrebu za lokalno prilagođenim AI rješenjima.
“BiH, i Balkan općenito, imaju svoje specifičnosti koje zahtijevaju adaptaciju postojećih i izgradnju novih alata za razumijevanje jezika, fraza, kulturnih referenci i specifičnih narativa u ovom regionu”, kaže Krivić.
Uz to, ona naglašava važnost edukacije građana o digitalnoj i medijskoj pismenosti. Upozorava i da javnost u BiH, uglavnom, nije svjesna kako funkcioniraju mehanizmi širenja dezinformacija, niti prepoznaje opasnosti.
“Lažne vijesti i manipulativni sadržaji često se dijele nesvjesno, iz neznanja, a ne iz loše namjere. U ovakvom okruženju, čak i najnapredniji AI sistemi neće biti u potpunosti efikasni bez podrške obrazovanja i javne svijesti”, navodi Krivić.
Al Jazeera Balkans je imala svoj AI program “Labeeb” koji im je bio od velike koristi za svakodnevni posao, obavljao transkripcije, prevode i kodiranje teksta. Nakon Međunarodnog festivala novinarstva u Perugi, početkom aprila 2025, intenzivno je razmišljao o korištenju AI-a za otkrivanje AI sadržaja.
“Prva pomisao mi je bila - mi na ovo nismo spremni. Bojim se da na Zapadnom Balkanu nismo dovoljno istrenirani da prepoznamo lažne AI sadržaje, a posljedice npr. deepfake videa političkog sadržaja u ovoj regiji bi mogle biti velike”, kaže Haris Buljubašić, producent digitalnih sadržaja na AJB.
Teže je prepoznati lažnu fotografiju slabe kvalitete
Govoreći o ograničenjima ovih programa, Buljubašić za primjer uzima fotografiju Pape Franje u velikoj bijeloj jakni koju umjetna inteligencije lako prepoznaje kao lažnu.
“Kako se ta fotografija konstantno preuzima i postavlja na internet tako opada njen kvalitet, ali i mogućnost programa umjetne inteligencije da je označi lažnom. Jedan podatak govori da mogućnost prepoznavanja fotografije umanjene kvalitete spada sa 99 posto na 33 posto. Slično se dešava i ako korisnici interneta originalnu lažnu fotografiju malo izmijene”, kaže Buljubašić.
Borislav Vukojević izdvaja nekoliko AI alata za otkrivanje dezinformacija.
ClaimBuster detektira “provjerljive” tvrdnje u tekstu ili govoru te ih rangira po važnosti za daljnju provjeru. Full Fact Monitoring koristi ML‑AI za automatsko označavanje i klasificiranje tvrdnji u vijestima i na društvenim mrežama, ali finalnu fact‑check odluku donose ljudi. Reuters News Tracer skenira X u realnom vremenu, grupiše slične tvitove i procjenjuje vjerodostojnost izvora, no rezultati idu novinarima na ultimatnu potvrdu. Logically kombinira AI ocjene tvrdnji i ljudske moderatorе, posebno na teme zdravlja i politike. Facticity.AI je u beta fazi i navodi 92 posto tačnosti, ali tek treba pokazati stabilnost u raznolikim jezicima i domenama.
“Svi ovi alati postižu najviše 70–90 posto tačnosti u idealnim uvjetima, dok izvan uzorka često padaju na 50–60 posto, što je ispod nivoa pouzdanosti potrebne za samostalno korištenje”, zaključuje Vukojevič.
U Slovačkoj izgubljeni izbori zbog deepfakea
Faktograf.hr posljednje dvije godine pisao je o desecima prevara na društvenim mrežama koje su sadržavale sadržaj kreiran AI alatima. Najčešće se radi o investicijskim prevarama ili prodaji lažnih lijekova.
“Koriste se AI generirane snimke poznatih osoba, političara ili liječnika. Neki od zanimljivijih primjera koje je Faktograf detektirao bile su snimke bivšeg hrvatskog ministra zdravstva Vilija Beroša za koje se tvrdilo da reklamira čudotvoran lijek, dok smo kod investicijskih prevara detektirali i AI snimke hrvatskog predsjednika Zorana Milanovića i premijera Andreja Plenkovića”, kaže Kristović, inače urednik rubrike “Razotkriveno”.
Prema njegovim riječima, prevare sa lažnim fotografijama ili snimcima na našim prostorima još nisu ušle u političku sferu, ali nije isključeno da će ih biti. Kandidat sa dobrim izgledima za pobjedu na slovačkim izborima, Michal Šimečka, “snagu” deepfakea osjetio je na svojoj koži.
“Ovo uistinu zvuči kao ja”, izjavio je Šimečka za CNN, nakon što je procurio lažni audio-snimak u kojem govori o namještanju izbora i povećanju cijene piva.
Razvoj AI softvera relevantnih za novinarstvo širom svijeta aktivno prati i Mreža za istraživanje kriminala i korupcije (KRIK) iz Srbije. Alate vještačke inteligencije koriste za razne aktivnosti, poput kreiranja sadržaja za društvene mreže, titlovanje video-snimaka, ilustraciju tekstova. U otkrivanju i analizi dezinformacija, smatraju, kao i ostali, da je ljudska pretraga i provjera i dalje ključna.
“Testirali smo nekoliko softvera dizajniranih za prepoznavanje glasa, nadajući se da će nam pomoći da razlikujemo pravi ljudski govor od vještački generisanog. U jednom od testova, snimio sam sopstveni glas – prvo govoreći normalno, a zatim praveći grimase. Ironično, softver je u oba slučaja procijenio da je riječ o glasu robota”, ispričao je novinar Stefan Kosanović. On AI koristi za različite zadatke - od lektorisanja i prevođenja tekstova do pomoći u kuhanju.
AFP potpisao ugovor s francuskim start‑upom
Kosanović smatra da fact-checkeri u Srbiji još nisu svjedoci masovne produkcije lažnih vijesti generisanih pomoću vještačke inteligencije, ali ne znači da se takav scenario neće desiti u budućnosti. Uz brojne prednosti AI-a kojima se olakšava posao u redakcijama, Kosanović, kao i ostali, ističe i nedostatke, među kojima su ključni nepouzdanost i sklonost greškama, što zahtijeva potpunu uključenost novinara u svaki proces.
“Najveća pomoć za nas bila bi automatizacija procesa identifikovanja potencijalno manipulativnih i lažnih vijesti koje zahtijevaju provjeru. Već postoje inicijative za razvoj softvera koji bi to omogućili. Ukoliko bi takvi alati bili otvorenog koda i sposobni da objektivno analiziraju hiljade tekstova dnevno, to bi značajno olakšalo posao malim redakcijama. Također, iščekujemo dalji napredak vještačke inteligencije u pogledu analize sadržaja”, kaže.
A kako to rade neke svjetske redakcije ispričao nam je Vukojević. Reuters već godinama u primarnoj obradi koristi News Tracer i Lynx Insight, AFP je nedavno potpisao ugovor s francuskim start‑upom Mistral za integraciju svojih članaka u AI‑chatbot koji pomaže pri fact‑checkingu.
U SAD‑u, neke redakcije poput The Messengera eksperimentiraju s alatom Seekr za automatsku procjenu subjektivnosti, pristrasnosti i click‑bait naslova. Veći fact‑checking servisi (PolitiFact, Snopes, Full Fact) razvijaju ili pilotiraju AI‑alate, ali ih koriste samo kao ‘prvi filter’ ili za statističke analize, ne za konačne odluke.
Uspjeh alata zavisi od pismenosti konzumenta
“Kao neko ko se bavi razvojem AI metoda usmjerenih ka dobrobiti čovjeka, čvrsto vjerujem da odnos između čovjeka i AI treba da bude timski, zasnovan na međusobnom razumijevanju, saradnji i komplementarnosti, a ne na nadgledanju ili jednostavnoj kontroli. AI metode imaju izvanredne rezultate u obradi ogromnih količina podataka, uočavanju obrazaca i automatizaciji, dok je čovjek nenadmašan kada je riječ o kontekstu, empatiji, vrednovanju i donošenju etički osjetljivih odluka. Zajedno, mogu postići mnogo više nego pojedinačno”, zaključuje doc. dr Senka Krivić.
Glavni urednik Raskrinkavanja Rašid Krupalija na kraju ističe da borba protiv dezinformacija mora uključivati unapređenje medijske i informacijske pismenosti građana u digitalnom dobu, od čega će znatno ovisiti uspjeh i efikasnost AI alata. Drugim riječima, korist od njih će biti znatno manja ako nemamo educirane konzumente sadržaja u medijima i na društvenim mrežama.
Ovaj tekst je proizveden uz finansijsku podršku Evropske unije. Za njegov sadržaj isključivo je odgovorna Fondacija Mediacentar i on ne odražava nužno stavove Evropske unije.
___
Želite sedmični pregled vijesti, analiza, komentara i edukacija za novinare u Inboxu Vašeg e-maila? Pretplatite se na naš besplatni E-bilten ovdje.