Predatori uz pomoć AI prave slike djece i kače na Tiktok i Instagram: Prijavite naloge koje primijetite
Slike AI djece na Tiktoku i Instagramu postaju magneti za mnoge koji imaju seksualna interesovanja vezana za maloljetnike. Ali kada je ovaj sadržaj legalan i prikazuje lažne ljude, upada u neurednu, zabrinjavajuću sivu zonu.
(Tekst sadrži informacije o uznemirujućem sadržaju na društvenim mrežama)
Djevojčice na fotografijama na Tiktoku i Instagramu izgledaju kao da imaju pet ili šest godina. One starije, ni 13.
Na slikama su obučene u čipku i kožu, u bikini i kratke majice. Obučene su kao medicinske sestre, superheroji, balerine i francuske sobarice. Neke nose zečije uši ili đavolje rogove, druge kikice i prevelike naočare. Tu su crnkinje, bijelkinje, azijatkinje, plavuše, crvenokose i brinete. Sve fotografije su napravljene uz pomoć vještačke inteligencije i počele su da privlače pažnju problematične publike na najvećim društvenim mrežama na svijetu – starijih muškaraca.
„AI stvara sjajna umjetnička djela: volio bih da imam takvu lijepu malu djevicu u svojim rukama da bude moja“, komentarisao je jedan korisnik Tiktoka nedavnu objavu mladih plavokosih djevojaka koje su obučene kao služavke, sa mašnom oko vrata i cvijećem u kosi.
„Ako je ovo generisala vještačka inteligencija, da li sam loš ako kažem da je zgodna?“, napisao je drugi tiktoker na slajdšou potpuno obučenih djevojčica u kostimima Spajdermena“.
„Ona nije stvarna, ali ja imam sjajnu maštu“.
„Ni u jednom slučaju ne bi trebalo da bude pogrešno“, odgovorio je drugi korisnik, čije je korisničko ime sadržalo „p3do“, što može da bude šifrovani jezik za „pedo“(pedofiliju).
„Ne možete da je povrijedite jer je to fotografija generisana vještačkom inteligencijom“, rekao je još jedan.
Slične primjedbe su preplavile AI fotografije djece na Instagramu.
„Volio bih da joj oduzmem nevinost, iako je fotografija lažna“, napisala je jedna osoba na objavi mlade, blijede devojčice koja je bila obučena kao mlada.
Drugu fotografiju, na kojoj je bila prikazana djevojčica u kratkim pantalonama, komentarisao je isti korisnik „njen slatki par malih [grudi]“, uz smajlije na kojima su bile prikazane dvije jabuke, „i njen savršeni nevini komad pite od višanja ispod“.
A na slici devojčice u predtinejdžerskoj dobi sa špagericama, neko po imenu „Geri“ je rekao: „Lijepi mali pupoljci. Kad odraste biće dinje dobre veličine“.
Skandalozni komentari na mrežama Tiktok i Instagram „Izgleda ukusno“. „Obavljate li dostavu na kućnu adresu?“ „Savršene godine koje treba iskoristiti“. „Želim tu slatku bebu“. „Možeš li da mi napraviš test u kome će ona da skoči iz telefona u moj krevet?“ |
Forbes je pronašao na stotine objava i komentara poput ovih na slikama djece generisane uz pomoć AI samo iz 2024. godine. Mnoge fotografije su bile označene muzičkim hitovima – kao što su Bijonsin „Teksas holdem“, hit Tejlor Svift „Šejk it of“ i Trejsi Čepmen „Fast kar“ – kako bi im pomogli da dođu do što većeg broja pregleda.
Dječiji predatori su vrebali gotovo svaku veliku društvenu mrežu – gdje mogu da se sakriju iza ekrana i anonimnih korisničkih imena – ali popularnost Tiktoka i Instagrama među tinejdžerima i maloljetnicima učinila je ove platforme glavnim destinacijama.
Iako se borba za suzbijanje materijala o seksualnom zlostavljanju djece (ili CSAM) vodi već neko vrijeme, prije nego što je AI postala toliko razvijena, AI generatori za pretvaranje teksta u slike sada još više olakšavaju predatorima da pronađu ili kreiraju upravo ono što traže.
Ovi alati su doveli do porasta AI-generisanog CSAM-a, što je nezakonito, iako je lažno. Ali slike otkrivene u izvještavanju o ovoj priči spadaju u sivu zonu.
Nisu eksplicitne, ali su seksualizovane. Prikazuju maloljetnike, ali ne stvarne. Čini se da su legalne, ali komentari na njima sugerišu opasne namjere. Stručnjaci za bezbjednost djece i forenziku opisali su ih kao portale ka mnogo tamnijoj, i potencijalno kriminalnoj, aktivnosti. To postavlja pitanja u domenu tehnologije i pravosuđa o tome kako treba postupiti sa pojavom sugestivnih, lažnih slika djece koje ne postoje – ili da li ih uopšte treba adresirati ako nisu eksplicitne i legalne.
Tehnološke kompanije, prema saveznom zakonu, moraju da prijave sumnju na CSAM i seksualno iskorištavanje djece na svojim platformama Nacionalnom centru za nestalu i zlostavljanu djecu, neprofitnoj organizaciji koja proslijeđuje informacije o toj nezakonitoj aktivnosti tijelima za sprovođenje zakona.
Ali nije obavezno da se označi ili ukloni slika poput onih opisanih u ovoj priči. Ipak, NCMEC je za Forbes rekao da vjeruje da bi društvene mreže mogle da ih uklone – čak i ako su legalne.
„Sve ove tehnologije se treniraju na osnovu slika stvarne djece, bilo da su prikazane u potpunosti ili ne, tako da NCMEC zapravo ne vidi tu stranu argumenta da postoji svijet u kojem je ovo u redu“, rekla je Felon Meknalti, direktorka organizacije Sajber Tiplajn, centralne tačke za prijavljivanje tehnološkim kompanijama.
Nedavno istraživanje koje je sproveo Stenford Internet opservatorijum otkrilo je da je jedan od najpopularnijih alata za generisanje slika uz pomoć teksta na tržištu danas, Stejbl Difjužn 1.5, treniran na CSAM-u, na fotografijama stvarne djece, koje su prikupljene sa različitih dijelova interneta.
„Posebno ako se uzmu u obzir neki od komentara da su fotografije privlačne, to ne zvuči kao da je publika koja želi da pogleda i konzumira takav sadržaj nevina“, dodala je Meknalti.
„Nadam se da ću vidjeti da taj sadržaj uklanjaju i da ne stvaraju prostor na svojim platformama za pojedince da seksualizuju djecu“.
TikTok i Instagram trajno su uklonili naloge, videozapise i komentare koji se spominju u ovoj priči nakon što je Forbes postavio pitanje o njima, obje kompanije su rekle da su prekršili pravila platforme.
„Tiktok ima strogu politiku protiv AI-generisanog sadržaja kako bi zaštitio mlade ljude i držao Tiktok neprijateljskim prema ponašanju koje nastoji da im naškodi“, rekao je portparol Džejmi Favaca.
U petak je kompanija donela novu politiku o sintetičkim medijima koja zabranjuje takav sadržaj ako sadrži lik bilo koga ko je mlađi od 18 godina, i uklanja objave koje krše njena pravila, bez obzira na to da li su izmijenjeni vještačkom inteligencijom.
Sofi Vogel, portparolka Instagram matične kompanije Meta, rekla je da kompanija ne dopušta i uklanja stvarne materijale i materijale generisane vještačkom inteligencijom koje seksualizuju ili iskorištavaju djecu.
U slučajevima kada se čini da je sadržaj bezopasan, oni i dalje uklanjaju naloge, profile ili stranice posvećene dijeljenju slika djece ili komentare koji se odnose na njihov izgled, rekao je Vogel. I Tiktok i Meta prijavljuju NCMEC-u AI-generisan CSAM koji pronađu na svojim platformama.
Ulaz ka nezakonitom sadržaju
Jedan popularni kreator fotografija djece generisanih putem AI imao je 80.000 pratilaca na Tiktoku i Instagramu, broj koji se povećavao u hiljadama dok je Forbes pisao ovaj tekst.
U opisu naloga, napisanom na mandarinskom, stajalo je „Žena sa štapićima“. Forbes nije uspio da utvrdi ko ga vodi, ali njegove najviralnije objave imaju gotovo pola miliona pregleda, lajkovani su više od 10.000 puta, podijeljeni nekoliko hiljada puta i privukli su na stotine komentara.
Mnogi njegovi pratioci – na osnovu profilnih fotografija, imena, biografije i komentara – izgledali su kao stariji muškarci.
Stručnjakinja za digitalnu forenziku Heder Mačol Barnhart rekla je da su u svom dosadašnjem radu na ovim slučajevima „dječije pornografije“ pratioci često nudili jasne tragove koji bi istražitelje mogli da upute na potencijalne predatore.
„Dječija pornografija je prolaz“, rekla je za Forbes, a „kad pogledate ko je prati, to nije normalno“.
Ovi tipovi naloga takođe više izlažu potencijalne prestupnike jer su ohrabreni kada su javno dostupni.
„Ljudi se osećaju sigurnije jer djeca nisu u potpunosti izložena, stoga nije CSAM“, rekao je Malik, koji vodi rad softverske kompanije Selebriti pomažući NCMEC-u i policiji da koriste njegovu tehnologiju u istraživanjima zlostavljanja djece. Naglasila je i da je od suštinskog značaja da policija pažljivije ispita ko prati ove naloge i traži obrasce ponašanja.
Tiktok nalog je podijelio video sa uputstvima koji pratiocima pokazuju kako da generišu i usavrše sopstvene fotografije mladih djevojaka.
„Iako sam mnogo godina stariji od tebe, čim sam ti vidio oči, zaljubio sam se“, pisalo je u komentaru na Tiktoku. Taj nalog pratio je druge naloge sa još sugestivnijim slikama djece.
(Drugi česti komentator, koji je davao primijedbe poput „široko otvori“, vodio je nalog na kome je objavljivao prave devojke koje su se razgibavale i istezale u trikoima).
Neki komentatori objava na Tiktoku i Instagramu korisnika „Žena sa štapićima“ pitali su koji je AI model korišten za izradu AI djece, sugerišući da bi mogli da budu zainteresovani za veću proizvodnju. („Ovo je nevjerovatno, volio bih da pronađem aplikaciju koja bi ovo mogla da stvori“, napisao je jedan čovjek prije nedjelju dana Instagramu o mladoj plavuši u grudnjaku). U januaru je Tiktok nalog podijelio trominutni video sa uputstvima koja pokazuju prijateljima kako da generišu i usavrše sopstvene fotografije.
Čini se da drugi komentatori nisu znali da su slike lažne, iako je kreator označio neke objave kao „AI-generisane“, kao što Tiktok zahtjeva, i može da bude teško da se golim okom uoči da nisu stvarne, što takođe otežava policiji da identifikuje stvarne žrtve. (Meta gradi alate kojima će moći da identifikuje slike koje su napravljene korištenjem OpenAI, Middžurni, Majkrosoft, Gugl, Adobi i Šaterstok, a zatim će početi da označava AI-generisan sadržaj objavljen na Fejsbuku, Instagramu, Tredsu, prema rečima Vogela, portparola Mete).
Lojd Ričardson, direktor IT-a u Kanadskom centru za zaštitu djece, rekao je da, bez obzira na to da li su te fotografije vještačka inteligencija ili su stvarne, one su „ulaz za ozbiljniji ili legalni sadržaj, često na drugim platformama, koje onda predstavljaju jasan sigurnosni rizik za djecu“.
„Ključni problem je da ovaj skup slika vodi ka mogućnostima umrežavanja za prestupnike“, rekao je Ričardson za Forbes, napominjući da će oni svoje razgovore često prenijeti u privatne poruke.
„Ove slike mogu da posluže kao putokazi za stvaranje veza prema CSAM-u na drugim kanalima“.
Prikaz slajdova na Tiktoku od 13. januara sa devojčicama u svilenim pidžamama pokazao je ovu vrstu kretanja napred-nazad u akciji. „Ovo funkcioniše“, napisala je jedna osoba u komentarima, na što je druga odgovorila: „Upravo sam ti poslala poruku“.
„Zbog toga kompanije ne mogu jednostavno da moderiraju sadržaj posmatrajući izolovano samo slike“, dodao je Ričardson.
„Mora da se uzme širi kontekst načina na koji se dijele, gledaju i slijede. Ovo je naravno veći izazov jer može da zahtjeva kontekstualnu procjenu koja može da zahtjeva ljudsku moderaciju“. (Favaca, portparol Tiktoka, rekao je da koriste automatizaciju kako bi lakše označili moguće dokaze o predatorskom ponašanju).
Tiktok moćni algoritam takođe olakšava pronalaženje još više ovakvih slika onima koji imaju seksualni interes za djecu. Dok je Forbes izveštavao o ovoj priči, Tiktok je počeo da preporučuje dodatne zahtjeve poput „AI-generisani dječaci“ i „AI-generisane djevojčice“.
A Tiktok zid „Za vas“, na koji korisnici dospiju kada otvore aplikaciju i koji služi za viralne videozapise za koje Tiktok misli da nam se mogu svidjeti, osigurava da dođu do milijarde Tiktok korisnika.
Meknalti, iz NCMEC-a, rekao je da je jedan od najvećih rizika to što AI-djeca imaju ovakve viralne objave na društvenim mrežama, čak i ako slike nisu ilegalne, a ljudi mogu da postanu ravnodušni prema tome koliko to može da bude opasno.
„Kao društvo“, postavlja pitanje, „hoćemo li jednostavno da se naviknemo na ovu vrstu sadržaja i da kažemo da je to u redu?“
Aleksandra Levin, novinarka Forbes