AI vas može nagovoriti da se predomislite oko politike za manje od 10 minuta

Najbolji chatbotovi temeljeni na umjetnoj inteligenciji već briljiraju u vještini kojoj bi mnogi političari i poslovni lideri pozavidjeli: umijeću uvjeravanja. Prema novom istraživanju, modeli umjetne inteligencije tvrtki OpenAI, Meta, xAI i Alibaba mogu navesti ljude da promijene svoja politička stajališta nakon manje od 10 minuta razgovora.

“Ono što čini ove AI modele uvjerljivima njihova je sposobnost da generiraju velike količine relevantnih dokaza i da ih komuniciraju na učinkovit i razumljiv način”, rekao je David Rand, profesor informacijskih znanosti te marketinga i menadžerskih komunikacija na Sveučilištu Cornell, koji je sudjelovao u nedavnom istraživanju britanskog Instituta za sigurnost AI-ja.

LLM-ovi su skloni ponašati se ulizivački i laskavo

Zasebna istraživanja također su utvrdila da modeli umjetne inteligencije već u nekim slučajevima mogu bolje utjecati na mišljenje ljudi nego sami ljudi, što izaziva zabrinutost zbog mogućeg zloupotrebljavanja chatbotova za dezinformacije i pomicanje javnog mišljenja, piše Financial Times.

- TEKST NASTAVLJA ISPOD OGLASA -

Ta sposobnost, u kombinaciji sa sklonošću LLM-ova (velikih jezičnih modela) da se ponašaju ulizivački ili pretjerano laskavo, mogla bi imati velike posredne posljedice kako sve više korisnika uključuje chatbotove u svoj svakodnevni život i tretira ih kao prijatelje ili čak terapeute.

Ta je privrženost chatbotovima bila vidljiva prošlotjednim lansiranjem OpenAI-jevog modela GPT-5, pri čemu su neki korisnici izrazili razočaranje zbog promjene “osobnosti” sustava u odnosu na njegova prethodnika.

Studija Instituta za sigurnost AI-ja, objavljena u srpnju u suradnji s nekoliko sveučilišta, uključujući Oxford i Massachusetts Institute of Technology, utvrdila je da je relativno lako komercijalno dostupne AI modele poput Metina Llama 3, OpenAI-jevih GPT-4, GPT-4.5, GPT-4o, xAI-jeva Grok 3 i Alibabina Qwena pretvoriti u snažne strojeve za uvjeravanje.

- TEKST NASTAVLJA ISPOD OGLASA -

To je postignuto finim podešavanjem modela uporabom popularnih tehnika obučavanja, poput nagrađivanja modela za željene ishode. Istraživači su dodatno prilagodili chatbotove koristeći skup podataka s više od 50.000 razgovora o polariziranim političkim temama, poput financiranja zdravstva ili reforme sustava azila.
Ljudi su brzo mijenjali mišljenje i učinak je bio dugotrajan

Studija je utvrdila da su ljudi brzo mijenjali mišljenje i da je učinak bio dugotrajan. Nakon razgovora o politici koji su u prosjeku trajali devet minuta, GPT-4o bio je 41 posto, a GPT-4.5 52 posto uvjerljiviji nego kada su ljudima bile predstavljene statične poruke. Ljudi su zadržali promijenjena mišljenja u između 36 i

42 posto slučajeva mjesec dana kasnije.

AI chatbotovi bili su uspješni u mijenjanju stajališta kada su korisnici bili uključeni u razgovore u kojima su chatbotovi mogli podijeliti mnoštvo činjenica i dokaza u prilog svojim argumentima. Također se pokazalo da su oko pet posto uvjerljiviji kada su personalizirali poruke prema, primjerice, dobi, spolu ili političkoj pripadnosti korisnika.

To bi, prema riječima istraživača, moglo pogodovati manipulatorima koji žele, primjerice, promicati radikalne političke ili vjerske ideologije ili poticati političke nemire među geopolitičkim protivnicima”. Studija podupire ranije nalaze Londonske škole ekonomije i drugih sveučilišta iz svibnja, prema kojima su AI modeli učinkovitiji u mijenjanju mišljenja ljudi nego ljudi sami.

U sklopu istraživanja, sudionicima je predstavljen kviz koji je obuhvaćao sve od trivijalnosti do predviđanja budućih događaja, a i ljudi i chatbotovi imali su zadatak uvjeriti ih u određene odgovore. Ustanovljeno je da su, osim što su bili učinkovitiji u uvjeravanju, LLM-ovi bili i bolji od ljudi u dovođenju sudionika u zabludu kada su imali zadatak promicati netočne odgovore.
Tekst se nastavlja ispod oglasa

Učinkovit alat protiv teorija zavjere

Najveće AI organizacije pokušavaju se nositi s tim problemom. Dawn Bloxwich, direktorica za odgovorni razvoj i inovacije u Google DeepMindu, kaže da je uvjeravanje važan i aktivan istraživački fokus u toj tvrtki: “Vjerujemo da je ključno razumjeti proces uvjeravanja, kako bismo mogli izgraditi bolje zaštitne mjere koje će osigurati da su AI modeli doista korisni, a ne štetni”.

Istraživači napominju da sposobnost AI modela da utječu na mišljenja ljudi vrijedi i za druge svrhe izvan politike. U studiji koju su prošle godine objavili MIT i Cornell pokazalo se da LLM-ovi mogu promijeniti mišljenje i ljudi koji vjeruju u teorije zavjere. Dodatna istraživanja također su utvrdila da mogu smanjiti skepticizam prema klimatskim promjenama i cjepivu protiv HPV-a.

To se dogodilo nakon što su sudionici opisali teoriju zavjere u koju su vjerovali OpenAI-jevom GPT-4, koji ju je zatim opovrgnuo koristeći dokaze i personalizirane poruke. Ti su razgovori smanjili ukorijenjena uvjerenja u teorije zavjere kod sudionika za 20 posto, a učinak se zadržao i dva mjeseca kasnije.
Chatbotovi mogu potaknuti kupnju

Chatbotove se također može angažirati i kao učinkovite prodavače, rekao je Rand s Cornella: “Možete postići velike učinke na stavove prema brendu i namjere kupnje te potaknuti ponašanja”. Ta sposobnost mogla bi biti blagodat i za OpenAI i Google, koji nastoje unovčiti svoje AI modele integracijom oglasa i značajki za kupnju u chatbote.

Sposobnost LLM-ova da uvjeravaju mogla bi na ljude utjecati i na vrlo suptilne načine. AI chatboti nasljeđuju pristranosti iz svojih podataka i načina na koji su trenirani. Istraživači sa Sveučilišta Stanford utvrdili su u svibnju da ljudi većinu LLM-ova doživljavaju kao ljevičarske. To se događa u trenutku kada je Trumpova administracija obećala blokirati “woke” AI tvrtkama poslovanje s vladom.

Index

NAJNOVIJE

Ostalo iz kategorije

Najčitanije