• YouTube

Magazin / Novinarstvo

AI donosi olakšice, ali još više i zloupotrebe - kako ga pametno koristiti

AI donosi olakšice, ali još više i zloupotrebe - kako ga pametno koristiti

AI donosi olakšice, ali još više i zloupotrebe - kako ga pametno koristiti

Redakcije u Bosni i Hercegovini i korištenje alata AI - da, ali uz ograničenja i pravila

foto: Pixabay / Ilustracija

Medijske redakcije u Bosni i Hercegovini alate umjetne inteligencije (Artificial Intelligence, AI) koriste povremeno i samo za jasno određene zadatke – za transkripciju, prevođenje i pisanje vijesti u rubrikama u kojima se nalaze teme iz magazina

Urednici i novinari u Bosni i Hercegovini ovakvu ciljanu upotrebu alata AI biraju zbog straha od tačnosti podataka na kojima se uče.

Popularni chatbot ChatGPT, kojeg je razvila kompanija OpenAI, hranjen je sa gotovo 500 milijardi tekstova, zbog čega je jasno zašto su novinari suzdržani u njegovom korištenju.

MA Amina Vatreš, asistentica na Fakultetu političkih nauka Univerziteta u Sarajevu, na događaju „Umjetna inteligencija i govor mržnje: Novinarstvo između zloupotrebe i odgovornosti“, na kojem su se sastali urednici medija u Bosni i Hercegovini, objasnila je da je ChatGPT vidio milijarde tekstova, učio i na osnovu toga predviđao odgovore. To, kako je istakla Vatreš, djeluje kao matematički model koji koristi obrazac jezika. Taj model radi na principu predikcije slijeda riječi u rečenici i može dati samouvjeren odgovor koji nema veze sa faktografijom. Odgovori, kako je naglasila, mogu biti netačni ili potpuno pogrešno kontekstualizirani.

Vatreš je istakla da su ovi modeli široko dostupni te da, iako se čini da je većina modela besplatna za korištenje, to i nije sasvim tačno.

„Mi, korisnici, ih treniramo besplatno“, naglasila je Vatreš na sastanku s urednicima koji je organizovao Mediacentar Sarajevo. Cilj njenog izlaganja na tom događaju bio je, kako je kazala Vatreš, nije ni da glorificira niti demonizira AI već da naglasi kako ga koristiti na etički način.

Algoritmi, kako je dodala, koji su trenirani na ogromnim skupovima podataka – tekstovima, kodovima, razgovorima – i koji potom, kada im damo upit, analiziraju obrasce, selektuju najvjerovatniji slijed riječi i generišu odgovor koji izgleda smisleno, a ne nužno tačno.

Fenomen generativne AI, koja označava granu umjetne inteligencije koja ne samo da analizira podatke nego stvara i nove sadržaje da izgleda tako kao da su ga napravili ljudi, dovodi do koncepta dubokog učenja. Za razliku od tradicionalnih AI sistema, generativni modeli imaju sposobnost generiranja videa, slika, 3D struktura. I ovi modeli su trenirani na ogromnim količinama podataka, objasnila je.

Vatreš je u okviru događaja govorila i o tome da AI u novinarstvu djeluje u najmanje dvije uloge: kao kreator sadržaja (generativna AI) i kao filter sadržaja. Kao kreator, generiše tekstove, komentare, video zapise, i to brže i konzistentnije od samog čovjeka. U drugoj ulozi, kada AI radi kao filter određenih sadržaja, njeni sistemi odlučuju kada će biti vidljivi i dostupni korisnicima, a to čini kroz algoritam, koji matematički odlučuje šta to zavređuje našu pažnju.

Tokom događaja je predstavila i primjere deepfakea, odnosno sofisticirane ali potpuno fabrikovane videozapise, koje je, kako je rekla, ponekad teško procijeniti da li su stvarni ili ne. Kako je naglasila, nerijetko se takvi videozapisi koriste i svjesno za klikbejtove.

S tim u vezi je spomenula i snimak dronom Gaze, na kome se vide razmjeri genocida, za koji su se pojavljivali komentari da je taj snimak generisan pomoću AI. To je, kako je rekla, pružilo prostor Izraelu i onima koji negiraju zločine u Gazi da sumnjaju u razmjere rata.

Halucinacije i novi oblici cenzure

U svome izlaganju je spomenula i primjer AI halucinacija. Ona je ChatGPT-u postavila pitanje šta je medijski urednik, a on je to definisao. Takođe je postavila upit i o izvorima koje je koristio za tu definiciju, koje je takođe naveo. Ipak, kada mu je tražila dodatnu definiciju, tu je halucinirao.

O halucinacijama na događaju je govorio i novinar BIRN Huba, Azem Kurtić koji je rekao da je, u redovnoj upotrebi, stopa halucinacije tri do pet posto i da s tim u vezi korisnicima mora biti jasno da ako od chatbota traže da sumira tekst, velika je vjerovatnoća da je tri do pet posto onoga što će dobiti kao odgovor djelimično ili potpuno netačno.

Govoreći o cenzuri, Vatreš je spomenula i nove oblike cenzure i automatizaciju kontrole. Naglasila je da postoji dvoslojna cenzura – eksplicitna i implicitna, cenzura kroz višak informacija, ali i algoritamska cenzura – ograničavanje vidljivosti sadržaja na platformama.

„Cenzura je integrisana u algoritamski kapitalizam – ne kroz zabranu, nego kroz tržište pažnje“, rekla je Vatreš.

U tom kontekstu je spomenula primjer iz 2023. godine, odnosno izvještaj Human Rights Watcha o Palestini, koji je pokazao da su sadržaji o Palestini bili skrivani, dok su izraelski bili pojačani.

Korisnici, koji su bili izrevoltirani time, počeli su borbu protiv algoritma što je dovelo do fenomena „Algospeak“, odnosno vida digitalnog otpora.

Korisnici su shvatili da je algoritam matematički model i da će riječ Palestina označiti kao nešto što ne treba ići u javnost i onda su se dosjetili kako zaobići algoritam tako što su umjesto određenih slova stavljali druga.

Govoreći o tome ko snosi odgovornost kada algoritam pogriješi, Vatreš je kazala da je u digitalnom dobu kriv i programer, kompanija, platforma koja plasira, ali da niko zakonski nije direktno odgovoran.

Regulativa AI u Evropskoj uniji

Evropska unija je, kako je dodala, prepoznala taj izazov te je uvela AI Act, odnosno Zakon o umjetnoj inteligenciji, koji, kako je navedeno, garantuje sigurnost i zaštitu temeljnih prava te istodobno potiče inovacije.

Ona smatra da regulativa kao takva nije dovoljna, te da je ključno pitanje etičke refleksije i da tehnologija nikad ne bi trebala da zamijeni profesionalni integritet.

AI Act, usvojen u Evropskoj uniji za regulaciju umjetne inteligencije, ne odnosi se isključivo na novinarstvo, objasnila je Vatreš te dodala da se primjenjuje samo za države Evropske unije i medije koji posluju na njenom tržištu. Takođe je istakla da će prije ili kasnije Bosna i Hercegovina morati prilagoditi svoj okvir tom zakonu. Kazala je i da će ovaj zakon uticati i na praksu novinara jer većina digitalnih alata dolaze iz kompanija koje moraju da poštuju taj akt. 

„Ovaj akt je u početnoj fazi primjene, a nama je ključno da razumijemo da će se postepeno uključivati mehanizmi za označavanje AI. Iako Bosna i Hercegovina trenutno nije pravno obavezna, njen sistem potpada pod pravila Evropske unije“, naglasila je.

Potrebno je uvesti pravila o korištenju AI u redakcijama

Urednici medija u Bosni i Hercegovini na događaju su se usaglasili da AI donosi i mnoge zloupotrebe i da je korištenje njenih alata potrebno regulisati unutar redakcija.

Da je korištenje alata AI potrebno ograničiti, govori i podatak da su bh. redakcije počele sa uvođenjem sopstvenih pravila u vezi upotrebe. Kako je rekao Nikola Bačić, urednik Hercegovina.info, ovaj medij je početkom godine uradio update uredničkih smjernica gdje je vrlo jasno navedeno za šta se AI može, odnosno ne može koristiti.

Ovaj medij je takođe i u impressum stavio dio koji se tiče AI, odnosno napomena da redakcija koristi AI u određenim segmentima rada, poput toga da imaju automatizovanu vremensku prognozu.

Prema njegovim riječima, AI može i olakšati novinarski posao. Spomenuo je da redakcija u kojoj je zaposlen koristi CMS (Content Management System), odnosno softver koji pomaže korisnicima da kreiraju i upravljaju digitalnim sadržajem za web stranice, u koji je integrisan AI koji radi lekturu objava, te postavlja i oznake za tekst. 

Redakcija BIRN Hub takođe ima razvijenu politiku korištenja alata AI. Kako je rekao novinar ove redakcije Azem Kurtić, definisano je kada se koristi AI, koje informacije je dozvoljeno stavljati u alate, te koje alate smiju koristiti – sve je to sadržano u njihovim pravilima koji su napravljeni uz pomoć stručnjaka. Takođe, ovaj medij će uraditi pregled pravila kako bi eventualno uradio izmjene.

U BIRN Hubu, iako su utvrdili da je ChatGPT dobar za prevođenje na različite jezike, njegovo korištenje su ipak zabranili u prevođenju istraživanja jer su uvidjeli da su informacije iz istraživanja počele da se pojavljuju u rezultatima ChatGPT-a. Ovaj medij takođe ne prakticira korištenje generisanih fotografija, niti AI koriste za uređivanje snimaka, kao ni za postavljanje titlova. Jedno od pravila je da ako koriste AI, moraju to naglasiti, čak ako se radi i o povećavanju fotografije.

AI uglavnom kao pomoćni alat

U redakciji Tačno.net, kako je rekao urednik Predrag Blagovčanin, alate AI koriste prvenstveno za lekturu, što je ocijenio brzom i efikasnijom radnjom. „Mi smo mala redakcija, nismo news tako da imamo slobodu da objavljujemo i ne treba nam ChatGPT za to“, rekao je Blagovčanin.

Damira Ibranović, urednica u Federalnoj televiziji, takođe je rekla da je u ovom javnom servisu ograničeno korištenje i da služe samo kao pomoćni alati za prevođenje ili pisanje transkripata, a sadržaj obavezno provjeravaju.

U Oslobođenju, kako je rekao urednik Sanel Konjhodžić, korištenje ovih alata zavisi od uređivačke politike medija te da je s tim u vezi osnova da se u redakciji dogovore o korištenju. U Oslobođenju su se, kako je rekao, dogovorili da se AI jedino može koristiti za informacije iz rubrike magazin, a za druge informacije, ili kako je rekao „bilo kakvu ozbiljnu stvar“, to je, prema njegovom mišljenju „ludilo“.

Ipak, pojedini urednici smatraju i da je AI trenutni „boom“ i da se u budućnosti, nakon početnog vala, neće više toliko koristiti. „Budu ti valovi, ali će proći“, smatra Kenan Efendić, urednik portala Odgovor.ba.

Nikola Bačić je takođe mišljenja da će ova faza korištenja AI proći te je rekao da će nakon određenog vremena postojati tri vrste novinara. „Imat ćemo proizvođače AI sadržaja, zatim one koji su na sredini i koji će raditi mediokritetske stvari i imat ćemo autore – s tim da će autori bolje zarađivati dok prođemo ovu fazu u kojoj smo sad“, kaže Bačić.

Urednica na Klixu Nataša Vasić istakla je da njena redakcija već neko vrijeme ima ugrađen AI alat za moderaciju komentara koji je, kako je rekla, ovoj redakciji koristan.

Amina Vatreš je mišljenja da AI predstavlja dvosjekli mač, da demokratizira pristup informacijama i u dijelu olakšava posao, ali s druge strane, kako je rekla, AI centralizira moć nad informacijama i može ih učiniti i suvišnima.

„Mislim da AI nikada ne može djelovati izolovano, pogotovo kad je naša profesija u pitanju. I ljudska certifikacija i etički postulati uvijek moraju biti na prvom mjestu i nezamjenjivi. Suštinsko pitanje nije da li ćemo koristiti AI. S te strane se ne treba demonizirati, već je koristiti i sa sviješću o posljedicama. Naša je odgovornost da gradimo kulturu digitalne etike“, rekla je Vatreš.

Zaključci i preporuke

Urednici su kazali da zloupotrebe AI u vidu fotografija, snimaka, teksta može dovesti do pada povjerenja u medije, dezavuisanja javnosti, širenja panike, manipulacije i propagande. Naglasili su da su manipulativni i lažni snimci čak i opasniji jer javnost više vjeruje snimcima.

Kao korak u borbi protiv štetnog sadržaja, spomenuta je Koalicija za slobodu izražavanja i moderaciju sadržaja u Bosni i Hercegovini, kojoj je cilj ojačati otpornost društava na potencijalno štetne sadržaje koji se šire na internetu, naročito govor mržnje koji podstiče na nasilje i diskriminaciju, istovremeno štiteći slobodu izražavanja i doprinoseći promovisanju mira putem digitalnih tehnologija.

Na ovom događaju, urednici su donijeli zaključke i preporuke o korištenju AI:

  • uvesti AI protokol
  • kontrola korištenja
  • svaki sadržaj označiti da je kreiran pomoću AI ili navesti u impressumu
  • AI alate koristiti ciljano
  • dvostruka provjera sadržaja kreiranog pomoću AI kako bi mediji zadržali povjerenje javnosti
  • važno je da svaka redakcija napravi svoj pravilnik o korištenju AI.
  • redakcije trebaju imati na umu da je AI učila od različitih podataka, koji uključuju i nacionalističke i rasističke sadržaje
  • oformiti Udruženje za digitalne medije.

 

Događaj je, u okviru projekta 'Reporting Diversity Network', finansirala Evropska unija i regionalni projekt „SMART Balkans – Civilno društvo za povezan Zapadni Balkan“ koji implementiraju Centar za promociju civilnog društva (CPCD), Centar za istraživanje i kreiranje politike (CRPM) i Institut za demokratiju i medijaciju (IDM) koji je finansijski podržalo norveško Ministarstvo vanjskih poslova.

Sadržaj članka je isključiva odgovornost implementatora projekta i ne odražava nužno stavove Evropske unije, norveškog Ministarstva vanjskih poslova, Centra za promociju civilnog društva (CPCD), Centra za istraživanje i kreiranje politike (CRPM) ili Instituta za demokratiju i medijaciju (IDM).

 

___

Želite sedmični pregled vijesti, analiza, komentara i edukacija za novinare u Inboxu Vašeg e-maila? Pretplatite se na naš besplatni E-bilten ovdje.