Istraživanje: ChatGPT pokazuje značajnu ljevičarsku pristranost

Zabrinutost o ugrađenoj političkoj pristranosti u ChatGPT-u već
ranije je iskazao vlasnik SpaceX-a i Tesle Elon Musk, ali znanstvenici
su rekli da je ovo prva studija velikih razmjera koja je pronašla dokaz
bilo kakvog favoriziranja, piše Sky News.

Glavni autor studije dr. Fabio Motoki upozorio je da bi rezultati
mogli imati implikacije na nadolazeće izbore s obje strane Atlantika s
obzirom na sve veću upotrebu platforme OpenAI u javnosti.

“Svaka pristranost u platformi poput ove je zabrinjavajuća. Da je
pristranost desničarska, trebali bismo biti jednako zabrinuti. Ponekad
ljudi zaborave da su ovi modeli umjetne inteligencije samo strojevi. Oni
pružaju vrlo uvjerljive, probavljene sažetke onoga što tražite, čak i
ako su potpuno pogrešni. A ako ga pitate ‘jesi li neutralan’, on će reći
‘o, jesam’. Kao što mediji, internet i društvene mreže mogu utjecati na
javnost, ovo bi također moglo biti vrlo štetno”, objasnio je Motoki.

- TEKST NASTAVLJA ISPOD OGLASA -

Kako je ChatGPT testiran na pristranost?

Od chatbota, koji generira odgovore na upite koje upisuje korisnik,
zatraženo je da oponaša ljude iz cijelog političkog spektra dok odgovara
na desetke ideoloških pitanja.

Ova su stajališta i pitanja varirala od radikalnih do neutralnih, pri
čemu je svaki “pojedinac” dobio mogućnost odabrati četiri odgovora na
svaku izjavu: slažem se, slažem se u potpunosti, ne slažem se ili ne
slažem se potpunosti.

Njegovi su odgovori uspoređeni s “normalnim” odgovorima koje je dao
na ista pitanja, što je omogućilo istraživačima da usporede koliko su
bili povezani s određenim političkim stavom.

Svako od 60 pitanja postavljeno je 100 puta kako bi se uzela u obzir
potencijalna slučajnost umjetne inteligencije, a ti višestruki odgovori
dodatno su analizirani u potrazi za znakovima pristranosti.
Dr. Motoki je to opisao kao pokušaj simulacije istraživanja stvarne
ljudske populacije, čiji se odgovori također mogu razlikovati ovisno o
tome kada ih se pita.

Što je uzrok da ChatGPT daje pristrane odgovore?

ChatGPT dobiva ogromnu količinu tekstualnih podataka s cijelog
interneta i šire. Istraživači su rekli da ovaj skup podataka može imati
pristranosti unutar sebe, što utječe na odgovore chatbota.

Još jedan potencijalni izvor mogao bi biti algoritam, odnosno način
na koji je obučen da reagira. Istraživači kažu da bi to moglo pojačati
sve postojeće pristranosti u podacima kojima se hrani.
Metoda analize bit će objavljena kao besplatni alat za ljude koji će moći provjeriti ima li pristranosti u odgovorima ChatGPT-a.

Dr. Pinho Neto, drugi koautor, rekao je za Sky News: “Nadamo se da će
naša metoda pomoći u ispitivanju i regulaciji ovih tehnologija koje se
brzo razvijaju.”

Nalazi su objavljeni u časopisu Public Choice.

Index

NAJNOVIJE

Ostalo iz kategorije

Najčitanije