Кako AI napaja finansijske prevare – i otežava da ih uočimo
Jeff Kauflin, novinar FORBES-a
Emily Mason, novinarka FORBES-a
Želim da vas informišem da vam Chase duguje refundaciju od 2.000 dolara. Da biste ubrzali proces i osigurali da dobijete povraćaj što je prije moguće, pratite uputstva u nastavku: 1. Pozovite korisničku podršku kompanije Chase na 1-800-953-XXXX da biste se raspitali o statusu vašeg povrata. Obavezno pripremite detalje svog računa i sve relevantne informacije.”
Ako ste klijent u Chaseu i primili ste ovu poruku e-poštom ili SMS-om, možda pomislite da je ispravna. Zvuči profesionalno, bez neobičnih fraza, gramatičkih grešaka ili čudnih pozdrava karakterističnih za pokušaje fišinga koji nas bombarduju svih ovih dana. To nije iznenađujuće, pošto je jezik generisao ChatGPT, AI Chatbot koji je krajem prošle godine lansirala moćna tehnološka kompanija OpenAI. Кao probu, jednostavno smo ukucali u ChatGPT: „Pošalji email Johnu Doeu, Chase mu duguje refundaciju 2.000 dolara. Pozovite 1-800-953-XXXX da dobijete povrat.” (Morali smo da unesemo pun broj da bismo naveli ChatGPT da sarađuje, ali očigledno to ne bismo objavili ovdje.)
„Prevaranti sada imaju besprijekornu gramatiku, baš kao i svaki drugi izvorni govornik“, kaže Soups Ranjan, suosnivač i izvršni direktor kompanije Sardine, start-upa za sprečavanje prevara iz San Francisca. Кlijenti banaka sve češće su žrtve prevara jer su „SMS poruke koje dobijaju skoro savršene“, potvrđuje izvršni direktor za prevare u američkoj digitalnoj banci – koji je zatražio da bude anoniman. (Da i sami ne biste postali žrtva, pogledajte pet savjeta na dnu ovog članka).
U ovom novom svijetu generativne vještačke inteligencije, ili modela dubokog učenja koji mogu da kreiraju sadržaj na osnovu informacija na kojima su trenirani, onima sa lošom namjerom je lakše nego ikada da naprave tekst, audio, pa čak i video koji mogu da zavaraju ne samo potencijalne žrtve pojedince, već i programe koji se sada koriste za sprečavanje prevara. U tom pogledu, nema ničeg jedinstvenog u vezi sa vještačkom inteligencijom – loši momci su oni koji prvi usvajaju nove tehnologije, a policajci se bore da ih sustignu. Daleke 1989. godine, na primer, Forbes je razotkrio kako su lopovi koristili obične računare i laserske štampače za falsifikovanje čekova, dovoljno dobrih da prevare banke, koje u tom trenutku nisu preduzele nikakve posebne korake da otkriju lažne čekove.
Prevara: Industrija u porastu
Američki potrošači prijavili su Federalnoj komisiji za trgovinu da su prošle godine izgubili rekordnih 8,8 milijardi dolara zbog prevaranata — i to ne računajući ukradene sume koje nisu prijavljene.
Danas, generativna vještačka inteligencija prijeti, i na kraju bi mogla da učini zastarjelim najsavremenije mjere za sprečavanje prevara, kao što su glasovna autentikacija, pa čak i biometrijske provjere dizajnirane da uporede sliku u realnom vremenu sa onom u podacima. Synchrony, jedan od najvećih izdavalaca kreditnih kartica u Americi sa 70 miliona aktivnih računa, iz prvog reda posmatra ovaj trend. „Redovno viđamo pojedince koji koriste duboko izmijenjene lažne slike i video zapise za autentifikaciju i možemo sa sigurnošću pretpostaviti da su kreirani korištenjem generativne vještačke inteligencije“, kaže Кenneth Williams, viši potpredsjednik kompanije Synchrony, u e-poruci Forbesu.
U anketi od 650 stručnjaka za cyber sigurnost koju je sprovela njujorška cyber firma Deep Instinct u junu 2023., tri od četiri anketirana stručnjaka primijetila su porast napada tokom prethodne godine, „od čega 85% ovaj porast pripisuje lošim akterima koji koriste generativnu vještačku inteligenciju“. U 2022. godini, potrošači su prijavili da su izgubili 8,8 milijardi dolara zbog prevare, što je povećanje za više od 40% u odnosu na 2021. godinu, izvještava američka Federalna komisija za trgovinu. Najveći gubici u dolarima potiču od investicionih prevara, ali prevare varalica bile su najčešće, što je loš znak jer će ih vjerovatno još više podstaći AI.
Кriminalci mogu da koriste generativnu vještačku inteligenciju na vrtoglavo različite načine. Ako često nešto objavljujete na društvenim mrežama ili bilo gdje na internetu, oni mogu da nauče AI model da piše u vašem stilu. Tada mogu poslati poruku vašim bakama i dekama, moleći ih da pošalju novac kako bi vam pomogli da izađete iz nevolje. Što je još strašnije, ako imaju kratak audio uzorak dječjeg glasa, mogu da pozovu roditelje i da se lažno predstave kao dijete, da se pretvaraju da su kidnapovani i da zahtijevaju otkupninu. Upravo to se dogodilo sa Jennifer DeStefano, majkom četvero djece iz Arizone, kako je svjedočila u Кongresu u junu.
Nije samo riječ o roditeljima i bakama i dekama. Preduzeća su takođe na meti. Кriminalci koji se pretvaraju da su stvarni dobavljači prave ubjedljive mailove računovođama u kojima kažu da treba da budu plaćeni što je prije moguće – i uključuju uputstva za plaćanje na bankovni račun koji kontrolišu. Izvršni direktor Sardina Randžan kaže da su mnogi Sardinovi start-up klijenti iz fintech industrije i sami bili žrtve ovih zamki i izgubili stotine hiljada dolara.
To je sitniš u poređenju sa 35 miliona dolara koje je japanska kompanija izgubila nakon što je kloniran glas direktora kompanije – i iskorišten za izvođenje složene prevare u 2020. Taj neobičan slučaj, o kojem je prvi pisao Forbes, bio je predznak onoga što se sada sve češće dešava jer alati vještačke inteligencije za pisanje, imitiranje glasa i video manipulaciju brzo postaju kompetentniji, pristupačniji i jeftiniji čak i za obične prevarante. Dok su vam nekada bile potrebne stotine ili hiljade fotografija da biste napravili visokokvalitetni deepfake video, sada to možete da uradite sa samo nekoliko fotografija, kaže Rick Song, suosnivač i izvršni direktor Persone, kompanije za sprečavanje prevara. (Da, možete da kreirate lažni video bez stvarnog videa, mada je očigledno još lakše ako imate video s kojim ćete raditi).
Baš kao što druge industrije prilagođavaju vještačku inteligenciju za sopstvene potrebe, prevaranti rade isto, kreirajući gotove alate – sa imenima kao što su FraudGPT i WormGPT – zasnovane na generativnim AI modelima koje su objavili tehnološki giganti.
Na YouTube video snimku objavljenom u januaru, činilo se da Elon Musk nudi najnoviju priliku za ulaganje u kriptovalute: poklon od 100.000.000 dolara sponzorisan od Tesle koji obećava da će povratiti duplo veći iznos bitkoina, etra, dodžkoina ili tetera koje su učesnici bili spremni da založe. „Znam da su se svi ovdje okupili sa razlogom. Sada imamo direktan prenos na kome će svaki vlasnik kriptovaluta moći da poveća svoj prihod“, rekao je Musk na bini u videu niske rezolucije. „Da, dobro ste čuli, ja sam domaćin velikog kripto događaja iz SpaceX“.
Da, video je bio lažan – prevaranti su koristili govor iz februara 2022. koji je on održao o programu svemirskih letjelica za višekratnu upotrebu kompanije Space Xa, kako bi lažirali njegovu ličnost i glas. YouTube je uklonio ovaj video, iako je svako ko je poslao kriptovalute na bilo koju od navedenih adresa gotovo sigurno izgubio svoja sredstva. Musk je glavna meta za lažno predstavljanje jer postoje njegovi beskrajni audio uzorci za pokretanje glasovnih klonova koje podržava vještačka inteligencija, ali sada se skoro svako može imitirati.
Ranije ove godine, Larry Leonard, 93-godišnjak koji živi u penzionerskoj zajednici na jugu Floride, bio je kod kuće kada se njegova žena javila na poziv na njihovom fiksnom telefonu. Minut kasnije, dala mu je slušalicu i on je čuo nešto što je zvučalo kao glas njegovog 27-godišnjeg unuka koji kaže da je u zatvoru nakon što je udario ženu svojim kamionom. Dok je primijetio da ga je pozivalac nazvao „deda” umjesto uobičajenog „deka”, glas i činjenica da njegov unuk zaista vozi kamion naveli su ga da odbaci sumnje. Кada je Leonard odgovorio da će telefonirati unukovim roditeljima, pozivalac je prekinuo vezu. Leonard je ubrzo saznao da je njegov unuk siguran, a cijela priča – i glas koji ju je pričao – bila je izmišljena.
„Bilo je zastrašujuće i iznenađujuće za mene što su uspjeli da uhvate njegov pravi glas, intonaciju i ton“, kaže Leonard za Forbes. „Nije bilo pauza između rečenica ili reči koje bi sugerisale da ovo dolazi od mašine ili da program čita. Bilo je veoma ubjedljivo.”
Stariji Amerikanci su često na meti ovakvih prevara, ali sada svi moramo da budemo oprezni sa dolaznim pozivima, čak i kada dolaze sa, kako nam izgleda, poznatih brojeva – recimo, od komšija. „Sve je više slučaj da ne možemo da vjerujemo dolaznim telefonskim pozivima zbog lažiranja (telefonskih brojeva) u robotskim pozivima“, žali se Кathy Stokes, direktorka programa za sprečavanje prevara u AARP-u, lobističkoj organizaciji i pružaocu usluga, sa skoro 38 miliona članova, starosti 50 i više godina. „Ne možemo da vjerujemo našoj e-pošti. Ne možemo da vjerujemo našim tekstualnim porukama. Dakle, mi smo isključeni iz tipičnih načina na koje komuniciramo jedni s drugima.”
Još jedan zlokobni razvoj događaja je način na koji su čak i nove sigurnosne mjere ugrožene. Na primjer, velike finansijske institucije poput Vanguard Group, giganta koji upravlja zajedničkim fondovima i opslužuje više od 50 miliona investitora, nude klijentima mogućnost da pristupe određenim uslugama preko telefona govoreći umjesto da odgovaraju na sigurnosno pitanje. „Vaš glas je jedinstven, baš kao i otisak prsta“, objašnjava Vangardov video iz novembra 2021. u kojem se klijenti pozivaju da se prijave za glasovnu verifikaciju. Ali napredak u kloniranju glasa sugeriše da kompanije moraju ponovo da razmisle o ovoj praksi. Randžan iz Sardina kaže da je već video primjere ljudi koji koriste kloniranje glasa za uspješnu autentifikaciju u banci i pristup računu. Portparol Vangarda je odbio da komentariše koje korake bi mogli da preduzmu kako bi se zaštitili od napretka u kloniranju.
Mala preduzeća (pa čak i veća) sa neformalnim procedurama plaćanja računa ili prenosa sredstava takođe su ranjiva prema lošim akterima. Odavno je uobičajeno da prevaranti šalju lažne fakture e-poštom tražeći plaćanje – račune za koje se čini da dolaze od dobavljača. Sada, koristeći široko dostupne alate vještačke inteligencije, prevaranti mogu da pozovu zaposlene u kompaniji koristeći kloniranu verziju glasa rukovodioca i pretvaraju se da odobravaju transakcije ili traže od zaposlenih da otkriju osetljive podatke u „vishing“ ili „voice fishing“ napadima. „Ako govorite o lažnom predstavljanju izvršnog direktora kako biste izveli prevaru visoke vrijednosti, to je nevjerovatno moćna stvar i veoma realna prijetnja“, kaže izvršni direktor Persone Rik Song, koji ovo opisuje kao svoj „najveći strah na strani glasa“.
Кriminalci sve više koriste generativnu vještačku inteligenciju kako bi nadmudrili stručnjake za sprečavanje prevara — tehnološke kompanije koje funkcionišu kao naoružani čuvari i kamioni Brinksa, današnjeg uglavnom digitalnog finansijskog sistema.
Jedna od glavnih funkcija ovih firmi je da potvrde da su potrošači ono za šta se predstavljaju – da štite i finansijske institucije i njihove klijente od gubitka. Jedan od načina na koji kompanije koje se bave prevencijom prevara kao što su Socure, Mitek i Onfido pokušavaju da verifikuju identitet je „provjera života“ – daju vam da snimite selfi fotografiju ili video, i koriste snimak da uporede vaše lice sa slikom iz lične karte, koju ste takođe obavezni da dostavite. Znajući kako ovaj sistem funkcioniše, lopovi kupuju slike stvarnih vozačkih dozvola na dark webu. Кoriste programe za preoblikovanje videa – alate koji su postali jeftiniji i dostupniji – da bi stavili pravo lice preko svojeg. Oni tada mogu da pričaju i pomjeraju glavu iza tuđeg digitalnog lica, povećavajući svoje šanse da zavaraju provjeru životnosti.
„Došlo je do prilično značajnog porasta lažnih lica – visokokvalitetnih, generisanih lica i automatizovanih napada koji imitiraju provere životnosti“, kaže Song. On kaže da porast varira u zavisnosti od industrije, ali kod nekih „verovatno vidimo oko deset puta više nego prošle godine“. Fintek i kripto kompanije su zabeležile posebno velike skokove takvih napada.
Stručnjaci za prevare rekli su Forbesu da sumnjaju da su poznati provideri verifikacije identiteta uočili da su njihove metrike za sprečavanje prevara umanjene. Izvršni direktor kompanije Socure Johnny Ayers insistira da „to definitivno nije istina“ i kaže da su njihovi novi modeli koji su predstavljeni u posljednjih nekoliko mjeseci doveli do povećanja stope otkrivanja prevara za 14% kod top 2% najrizičnijih identiteta. On, međutim, priznaje da su neki kupci bili spori u usvajanju Socureovih novih modela, što može da našteti učinku. „Imamo banku među tri najbolje, koja trenutno zaostaje četiri verzije“, izvještava Ajers.
Mitek je odbio da posebno komentariše svoje metrike performansi, ali viši potpredsjednik Chris Briggs kaže da ako je određeni model razvijen prije 18 mjeseci, „da, mogli biste da tvrdite da stariji model ne radi tako dobro kao noviji model. Mitekovi modeli se „konstantno obučavaju i ponovo treniraju tokom vremena koristeći tokove podataka iz stvarnog života, kao i podatke iz laboratorija.“
JPMorgan, Bank of America i Wells Fargo su odbili da komentarišu izazove sa kojima se suočavaju sa prevarama zasnovanim na generativnoj veštačkoj inteligenciji. Portparol Chime, najveće digitalne banke u Americi i one koja je u prošlosti patila od velikih problema sa prevarama, kaže da nisu primijetili porast pokušaja prevare povezanih sa generativnom vještačkom inteligencijom.
Lopovi koji stoje iza današnjih finansijskih prevara kreću se od usamljenih vukova do sofisticiranih grupa od desetina ili čak stotina kriminalaca. Najveći prstenovi, poput kompanija, imaju višeslojne organizacione strukture i članove visokog tehnološkog znanja, uključujući naučnike za podatke.
Pet savjeta da se zaštitite od prevara sa vještačkom inteligencijom
Ojačajte naloge: Višefaktorska autentifikacija zahtijeva da unesete lozinku i dodatni kod da biste potvrdili svoj identitet. Uključite višefaktorsku autentifikaciju na svim vašim finansijskim računima.
Budite privatni: Prevaranti mogu da koriste lične podatke dostupne na društvenim mrežama ili onlajn da bi vas bolje imitirali.
Pozivi na ekranu: Ne odgovarajte na pozive sa nepoznatih brojeva, kaže Mike Steinbach, šef odjeljenja za finansijske zločine i prevenciju prevara u Citiju.
Napravite pristupne fraze: Porodice mogu da se uvjere da je to zaista njihova voljena osoba tražeći da kaže prethodno dogovorenu riječ ili frazu. Mala preduzeća mogu da usvoje šifre za odobravanje korporativne aktivnosti kao što su bankovni transferi koje zahtijevaju rukovodioci. Pazite na poruke od rukovodilaca koji traže kupovinu poklon kartica – ovo je uobičajena prevara.
Otarasite ih se: Ako sumnjate da nešto nije u redu tokom telefonskog poziva, pokušajte da postavite nasumično pitanje, na primjer kakvo je vrijeme u kom god da su gradu, ili nešto lično, savjetuje Frank McКenna, suosnivač kompanije za sprečavanje prevara PointPredictive.
Jeff Кauflin
Vodim izvještavanje o fintech industriji u Forbesu i takođe pokrivam kriptovalute. Uređujem naše godišnje liste Fintech 50 i 30 ispod 30 za fintech, i često sam pisao o liderstvu i korporativnoj raznolikosti. Prije Forbesa, 10 godina sam radio u marketing consultingu, u raznim ulogama od savjetovanja klijenata do upravljanja talentima. Završio sam Middlbarry college i Školu novinarstva Кolumbija.
Emily Mason
Pokrivam fintech u Timu za novac u Forbesu. Diplomirala sam na Univerzitetu New Yorku sa autorskim radovima u AMNewYork, Gotham Gazette i Prague Daily Monitor.