Evropska komisija pokrenula postupak protiv TikToka

Evropska komisija pokrenula postupak protiv TikToka

Evropska komisija pokrenula postupak protiv TikToka

Ključno je da TikTok poduzme hitne mjere za rješavanje sistemskih rizika, saopšteno je iz Amnesty Internationala.

foto: Pixabay

Organizacija fokusirana na ljudska prava Amnesty International pozdravila je odluku Evropske komisije (EK) koja je pokrenula službeni postupak za procjenu da li je kompanija društvenih mreža TikTok prekršila Akt o digitalnim uslugama (DSA) u oblastima vezanim za zaštitu maloljetnika.

“Pozdravljamo odluku EK da istraži TikTok zbog mogućnosti da je prekršio DSA jer nije zaštitio djecu i mlade. Posljedice na mentalno zdravlje koje platforma nanosi djeci i mladima ostaje dugotrajna briga“, izjavila je Damini Satija, direktorica programa u sektoru za tehnologiju Amnesty Internationala.

Istraživanje Amnesty Internationala 2023. pokazalo je da TikTok, kako je dodala Satija, može uvući dječije naloge u 'opasne zečje rupe sadržaja' koji romantizuju samopovređivanje i samoubistvo i to unutar sat vremena od prijave na platformu. Djeca i mladi su, kako se dodaje u istraživanju, smatrali da je njihova upotreba TikToka uticala na školske obaveze i druženje s prijateljima te ih je navela da skrolaju kroz svoje feedove do kasno navečer umjesto da se naspavaju.

“TikTok po dizajnu ima za cilj da maksimizira angažman, što sistemski potkopava dječija prava. Ključno je da TikTok poduzme hitne mjere za rješavanje ovih sistemskih rizika. Djeci i mladim korisnicima treba ponuditi pravo pristupa sigurnim platformama, a zaštita tih prava više ne može čekati”, kazala je Satija.

Amnesty International podsjeća da je 2023. objavio dva izvještaja u kojima se ističu zloupotrebe djece i mladih koji koriste TikTok.

Jedan izvještaj, Otjeran u tamu: Kako TikTok potiče samopovređivanje i samoubilačke ideje, pokazuje kako TikTokova potraga za pažnjom mladih korisnika rizikuje pogoršanje njihovih briga o mentalnom zdravlju kao što su depresija, tjeskoba i samopovređivanje.

Drugi izvještaj, “Osjećam se izloženo”: Uhvaćeno na TikTokovoj mreži za nadzor, otkriva da su TikTokove prakse prikupljanja podataka kojima se krše prava podržane štetnim praksama angažmana korisnika.

Oba izvještaja, kako se navodi, dio su rada organizacije koji razotkriva poslovne modele velikih tehnoloških kompanija koje daju prednost profitu nad ljudskim pravima.

EK je u saopštenju od 19. februara navela da će se istraga fokusirati na usklađenost s DSA obavezama koje se odnose na procjenu i ublažavanje sistemskih rizika, u smislu stvarnih ili predvidivih negativnih učinaka koji proizlaze iz dizajna sistema TikToka, uključujući algoritamske sisteme, koji mogu potaknuti ovisnost o ponašanju i/ili stvoriti tzv. 'efekt zečjih rupa'.

Takva procjena je potrebna, kako je saopšteno iz EK, kako bi se suzbili potencijalni rizici za ostvarivanje temeljnog prava na tjelesnu i mentalnu dobrobit osobe, poštivanje prava djeteta kao i njen uticaj na procese radikalizacije. Istaknuto je i da mjere ublažavanja koje su na snazi u tom pogledu, posebno alati za provjeru dobi kojima se koristi TikTok kako bi spriječio pristup maloljetnika neprimjerenom sadržaju, možda nisu razumne, proporcionalne i učinkovite.

Fokus će biti i usklađenost TikToka s obavezama DSA u vezi sa osiguravanjem visokog nivoa privatnosti i sigurnosti za maloljetnike, posebno u pogledu zadanih postavki privatnosti za maloljetnike u okviru osmišljavanja i funkcionisanja njihovih sistema za preporučivanje.

Istraga je usmjerena i u pogledu pružanja pretraživog i pouzdanog repozitorija oglasa prikazanih na TikToku, kao i za mjere koje je poduzeo TikTok kako bi povećao transparentnost svoje platforme. Istraga se odnosi i na sumnje da nestoje pristup istraživačima javno dostupnim podacima TikToka, kako je propisano člankom 40. Akta o digitalnim uslugama.

Izvor: Amnesty International, Evropska komisija

___

Želite sedmični pregled vijesti, analiza, komentara i edukacija za novinare u Inboxu Vašeg e-maila? Pretplatite se na naš besplatni E-bilten ovdje.