Veštačka inteligencija i društvene mreže
Veštačka inteligencija i društvene mreže
Mnogo ličnih i osetljivih podataka potrebno je algoritmima da bi upoznali korisnike.
Foto: Pixabay
U aprilu 2016. godine, na tada već izuzetno popularnoj mreži Instagram, tiho je uvedena promena u redosledu prikazivanja sadržaja koje korisnici vide kada otvore aplikaciju. Do tog trenutka, slike su izlazile redosledom kojim su i objavljivane (hronološki), a od tada, posao biranja i serviranja sadržaja poveren je algoritmima veštačke inteligencije.
Zvanična izjava kompanije zvučala je kao replika iz naučno-fantastičnog filma: “Kako bismo unapredili vaše iskustvo, prikazivaćemo vam objave za koje verujemo da će vas najviše zanimati”. Mnogi korisnici su se bunili – jedni su brinuli da će propustiti nešto važno, drugi da će njihove objave biti skrajnute, treći da će biti mnogo manipulacije. Jedno je bilo zajedničko – svima je osećaj “kontrole” ugrozio neki algoritam – crna kutija sa nizom pravila u koje niko sem tvorca aplikacije nema uvid.
Sistemi za preporuke
Upravo ti algoritmi su jedan od najboljih primera kako društvene mreže danas koriste veštačku inteligenciju. U ovom slučaju da bi korisnicima prvo ponudili “odgovarajući” sadržaj dok su na platformi, ali i da bi maksimalno uvećali interakciju (engagement) i mimo platforme – notifikacijama i mejlovima koji mame klik i odlazak u aplikaciju. Što više interakcije, to je više serviranih oglasa (takođe “odgovarajućih”), a samim tim je i zarada za platformu veća. Zato nije čudno što su algoritmi štelovani tako da maksimizuju vreme pred ekranom, a sredstva (sadržaj) “biraju” matematički, pa čak iako loše utiču na korisnika.
Lažne vesti se društvenim mrežama šire šest puta brže nego istinite, a lako “zapaljivi” materijali su svakako govor mržnje i politički ekstremizam, teorije zavere i dezinformacije.
Dokumenti uzbunjivačice iz Fejsbuka su pokazali da iako svesni ogromnih posledica koje ovako automatizovani sistemi za preporuke sadržaja imaju po društvo i pojedince, vlasnici ne preduzimaju mnogo. Činjenica je da oni nemaju puno prostora za altruizam ili etiku, jer su u kapitalizmu takvim kompanijama rast i profit imperativ za opstanak na tržištu.
Algoritamska moderacija
Praktično jedini filter za “šta god da drži pažnju, pa makar i nezdravo” opet je niz algoritama koji vrše “automatizaciju moderacije”, tj. blokiranje nedozvoljenih saržaja na platformi što se, osim seksualnog sadržaja, nasilja, govora mržnje i pretnji, pod pritiskom javnosti sve više odnosi baš na lažne vesti i dezinformacije.
Kompanija Meta tvrdi da njihova “tehnologija otkrije 90% sadržaja koji obriše pre nego što ga bilo ko prijavi”. U fusnoti se dodaje da se ovo odnosi na većinu kategorija zabranjenog sadržaja. I upravo je tako – veštačka inteligencija nema problema sa jednostavnim zadacima kao što su prepoznavanje nagosti ili već ranije označenog i zabranjenog sadržaja, ali veliki je izazov naučiti mašinu da razume kompleksan jezik ili grafike čije značenje isuviše zavisi od konteksta. Dodatno, sve je više fabrikovanih vesti kreirano upravo uz pomoć samih algoritama, pa se inženjeri susreću sa sve većim izazovima poput toga kako trenirati veštačku inteligenciju da se bori protiv same sebe.
Ipak, kako jedan agent veštačke inteligencije – algoritam – jednačina, može da odredi šta je istina? Istina je filozofska kategorija, a ne tehnička. Zato su poslednjih godina timovi ljudskih moderatora i fektčekera angažovani od strane onlajn platformi za reviziju odluka mašina u slučajevima kada korisnici ulože žalbu, ili kada algoritmi označe određeni slučaj kao sporan.
Termin “human-in-the-loop” ili ljudska karika u lancu odnosi se na potrebu za ljudskom interakcijom sa sistemima mašinskog učenja da bi se unapredio njihov učinak. Sistemi algoritamske moderacije ne mogu da funkcionišu bez ljudi koji ih opslužuju. Mašina treba da se dizajnira, napravi, održava i neprestano hrani novim podacima za učenje, što zahteva kompleksan lanac ljudskog rada.
Upravo obaveza ljudske karike u ovom lancu procesa odlučivanja dokazuje da ta “veštačka inteligencija” i nije baš potpuno “veštačka”.
Algoritamsko sortiranje podataka
Pre same moderacije i filtriranja nepodobnog sadržaja postoji barem još jedan bitan korak koji je poveren veštačkoj inteligenciji – sortiranje i analiza svih prikupljenih podataka i pohranjenih sadržaja. Platforme poput Fejsbuka beleže svaku aktivnost korisnika i konstantno ažuriraju njihove profile informacijama o njihovom ponašanju, potrebama, interakcijom sa drugim korisnicima, ali i emocijama (emotikoni su od pomoći).
Istovremeno se vrši detaljna klasifikacija svih sadržaja koji korisnicima treba da se raspodele i serviraju kroz algoritamske sisteme za preporuke. Za tu svrhu, koriste se tehnologije poput “obrade prirodnog jezika” (natural language processing) i “kompjuterskog vida” (computer vision).
Prva se odnosi na učenje i razumevanje različitih jezika i tekstualnih sadržaja, a druga na analizu vizuelnih informacija, prepoznavanje objekata, kretanja itd. Na žalost, tokom ovog procesa se neminovno javlja puno grešaka kao i neka vrsta “algoritamske pristrasnosti”, jer kreiranje statističkih modela koji se koriste zavise od unetih podataka, tj. reflektuju realan svet. Tako su tvitovi pisani na afričko-američkom engleskom dva puta češće obeležavani kao uvredljivi, a preporuke LinkedIn-a favorizovale muškarce u odnosu na žene.
Proširena stvarnost
Sve ove tehnologije veštačku inteligenciju čine “mozgom” proširene stvarnosti, gde korisnici kroz naočare gledaju realan svet nadograđen digitalnom slikom. Tako policajci mogu da dobiju sažeti “profil” i druge informacije o osobi u koju gledaju, a korisnici Fejsbukovog metaverzuma vizuelnu navigaciju do ključa od auta koji su negde ćušnuli.
Međutim, ove “pogodnosti” dolaze sa velikom cenom u vidu osetljivih podataka. Da bi Fejsbuk znao gde su ti isti ključevi, on sve snima, skladišti i analizira. A da li će policijski službenik ili osiguravajuće društvo takođe imati pristup tim podacima kada budu donosili odluke o nama? Slučaj je isti kao i sa našim aktivnostima kada smo na internetu pred ekranom – mnoge javne, tajne službe i privatne kompanije već imaju pristup našim “dosijeima” na osnovu toga šta pretražujemo, klikćemo i sa kim komuniciramo.
Algoritamski zamor
Odnos korisnika i ovih sistema za preporuke vremenom stvara sve više nelagode, nepoverenja, a često i razočarenja. Nelagoda dolazi iz samog saznanja koliko je ličnih i osetljivih podataka potrebno algoritmima da bi “upoznali” korisnike, uz vrlo često odsustvo svesnog pristanka na njihovo prikupljanje. Netransparentnost kompanija kada se radi o algoritmima jača nepoverenje jer favorizuje korisnike koji prave “popularan” i “viralan” sadržaj, dok ostale ređe prikazuje (shadowbanning). Konačno, korisnici sve češće izražavaju nezadovoljstvo sadržajem koji im se servira, bilo da su u pitanju filmovi na Netflixu, klipovi na Youtubeu, muzika na Spotifyu ili redosled “story-a” na Instagramu.
Najava Instagrama da će vratiti hronološko prikazivanje objava kao opciju tokom 2022. očigledno je bila reakcija na pritisak javnosti i korisnika. Institucije žele regulaciju algoritama, a korisnici su umorni od njih. To je dobar znak da kao društvo postajemo svesni veštačke inteligencije, njenog uticaja i sveprisutnosti. Ako se ovakav trend nastavi, korisnici će možda zadržati dostojanstvo izbora i uskoro ponovo ulagati napore da, bar donekle, sami uređuju i biraju sadržaje za sebe.
___
Želite sedmični pregled vijesti, analiza, komentara i edukacija za novinare u Inboxu Vašeg e-maila? Pretplatite se na naš besplatni E-bilten ovdje.