Prevara nove generacije: ChatGPT u rukama hakera postaje nezaustavljivo oružje

OpenAI je razotkrio uznemirujuću realnost – moćna vještačka inteligencija sve češće završava u rukama državnih sajber kriminalaca.

Kina, Rusija, Severna Koreja i Iran koriste AI kao svoje novo oružje u digitalnom ratu, vodeći sofisticirane kampanje koje prijete da potkopaju globalnu bezbjednost i povjerenje na internetu.

U posljednja tri meseca, OpenAI je uspješno ugasio deset velikih mreža koje su zloupotrebljavale njihove AI alate, pokazujući svoju posvećenost sprečavanju on-line prijetnji. Ova akcija predstavlja jedan od najvažnijih primjera kako tehnološke kompanije mogu preuzeti vodeću ulogu u suzbijanju sajber kriminala.

- TEKST NASTAVLJA ISPOD OGLASA -

Lažni profili i propagandne mašinerije

Kineske hakerske grupe pokrenule su brojne kampanje širenja lažnih vijesti i polarizujućih poruka na društvenim mrežama poput TikToka i X-a. Pod operacijama poput “Sneer Review” i “Uncle Spam”, kreiraju se lažni profili koji često prikazuju američke veterane, ciljajući da destabilizuju društvene debate i politički dijalog.

Ove kampanje ne samo da manipulišu informacijama, već i stvaraju duboke podjele u društvu, izazivajući strah i nepovjerenje. Korišćenje AI u ove svrhe predstavlja novu dimenziju sajber ratovanja, gdje je digitalna laž jednako moćna kao i oružje.

AI u službi sajber špijunaže i krađe podataka

Sjevernokorejski hakeri koriste vještačku inteligenciju da kreiraju lažne biografije i prijave za poslove širom svijeta, najvjerovatnije sa ciljem prikupljanja povjerljivih informacija. Ove sofisticirane prevare omogućavaju im da zaobiđu bezbjednosne barijere i pristupe osjetljivim IT sistemima.

- TEKST NASTAVLJA ISPOD OGLASA -

S druge strane, ruske hakerske grupe razvijaju malvere uz pomoć AI, planiraju sajber napade i izvode operacije poput “ScopeCreep” usmjerene na krađu podataka. Njihove aktivnosti predstavljaju ozbiljnu prijetnju globalnoj sajber bezbjednosti i zahtjevaju hitnu međunarodnu reakciju.

Operacije prevare zasnovane na AI

Jedan od najozbiljnijih slučajeva zloupotrebe AI u prevarama dolazi iz Kambodže, gdje je grupa nazvana “Wrong Number” koristila vještačku inteligenciju da prevede i personalizuje poruke koje obećavaju lake zarade. Žrtvama se nudi posao sa visokim primanjima za jednostavne aktivnosti poput lajkovanja na društvenim mrežama, da bi potom tražili novac za navodne nagrade.

Ova prevara je djelovala na više jezika i usmjeravala žrtve na aplikacije poput WhatsApp-a i Telegram-a, pokazujući koliko su savremene tehnologije efikasne u globalnom širenju kriminalnih šema.

OpenAI na udaru zakona i etike

Pored tehnoloških izazova, OpenAI se suočava i sa pravnim bitkama. Nedavna sudska odluka u SAD nalaže kompaniji da sačuva korisničke razgovore ChatGPT-ja, kao dio spora oko navodnog kršenja autorskih prava. Izdavači tvrde da su njihovi tekstovi korišćeni bez dozvole za obuku AI modela, što ugrožava njihov poslovni model.

OpenAI upozorava da ova naredba predstavlja ozbiljan rizik po privatnost korisnika, koji često djele osjetljive informacije u povjerenju. Ova dilema naglašava potrebu za balansom između zaštite autorskih prava i očuvanja digitalne privatnosti u eri vještačke inteligencije

NAJNOVIJE

Ostalo iz kategorije

Najčitanije