Profesor s Oxforda: AI zvuči ljudski, ali ne zna kad pogriješi. To je jako opasno

Brza komercijalizacija umjetne inteligencije povećava rizik od katastrofe nalik Hindenburgu, koja bi mogla ozbiljno narušiti povjerenje javnosti u ovu tehnologiju, upozorio je jedan od vodećih svjetskih stručnjaka za AI.

Profesor umjetne inteligencije sa Michael Wooldridge, Michael Wooldridge, smatra da je opasnost posljedica ogromnog komercijalnog pritiska na tehnološke kompanije da što prije lansiraju nove AI alate. Cilj im je privući korisnike prije nego što potpuno razumiju potencijal i rizike svojih proizvoda, prenosi The Guardian.

Pojava AI chatbotova čiji se sigurnosni mehanizmi lako zaobilaze, pokazuje da komercijalni interesi često prevladavaju nad opreznim pristupom u razvoju i testiranju, ističe Wooldridge. „Ovo je tipična situacija u tehnološkom svijetu“, naglasio je.

- TEKST NASTAVLJA ISPOD OGLASA -

„Imate tehnologiju koja mnogo obećava, ali nije dovoljno rigorozno testirana, dok komercijalni pritisak na lansiranje postaje neizdrživ.“

Hindenburg kao upozorenje

Wooldridge, koji će u srijedu održati predavanje Kraljevskom društvu pod naslovom „Ovo nije umjetna inteligencija kakvu su nam obećali“, upozorava na potencijalni „hindenburški trenutak“.

Hindenburg, cepelin dug 245 metara, koji je 1937. godine preletio Atlantik, izgorio je tokom slijetanja u New Jersey, pri čemu je život izgubilo 36 ljudi. Požar je izazvala iskra koja je zapalila 200.000 kubnih metara vodika koji je cepelin držao u zraku.

- TEKST NASTAVLJA ISPOD OGLASA -

„Katastrofa Hindenburga uništila je globalni interes za cepeline, a sličan scenario može se desiti i AI tehnologiji“, rekao je Wooldridge. Pošto je AI integrisan u mnoge sisteme, veliki incident mogao bi pogoditi gotovo sve sektore.

Potencijalni scenariji katastrofe

Wooldridge predviđa scenarije poput smrtonosnih nadogradnji softvera za samovozeće automobile, hakerskih napada podržanih umjetnom inteligencijom koji bi mogli paralizovati globalne avio-kompanije, ili kolaps velikih finansijskih institucija zbog pogrešaka AI sistema.

„Ovo su vrlo realni scenariji“, upozorava. „Postoji mnogo načina na koje AI može nepredvidivo poći po zlu pred očima javnosti.“ Ipak, Wooldridge naglašava da njegov cilj nije kritika moderne umjetne inteligencije, već ukazivanje na jaz između očekivanja istraživača i stvarnog stanja.

Mnogi stručnjaci su očekivali AI koji pruža precizna rješenja i potpune odgovore. „Današnja umjetna inteligencija nije precizna ni potpuna, već vrlo aproksimativna“, objašnjava. Veliki jezički modeli, temelj današnjih chatbotova, generišu odgovore predviđanjem naredne riječi na osnovu statistike naučene tokom obuke, što dovodi do sistema koji u nekim zadacima briljira, a u drugima potpuno zataji.

Rizik od antropomorfizacije AI

Problem je što AI chatbotovi često greše na nepredvidive načine i nemaju svijest o sopstvenim pogreškama, ali daju samouvjerene odgovore. Kada ti odgovori zvuče ljudski i uljudno, lako mogu zavarati korisnike.

„Ljudi počinju AI doživljavati kao ljudsko biće“, upozorava Wooldridge. Istraživanje Centra za demokratiju i tehnologiju iz 2025. pokazalo je da gotovo trećina studenata tvrdi da su oni ili njihovi prijatelji imali romantičnu vezu sa umjetnom inteligencijom.

„Kompanije žele AI prikazati što ljudskijim, ali to je opasan put. Moramo shvatiti da su to samo unaprijeđene proračunske tablice i alati, ništa više.“

Pouka iz Zvjezdanih staza

Wooldridge vidi inspiraciju u AI prikazanom u ranijim sezonama Star Trek. U jednoj epizodi iz 1968. godine, Spock postavlja pitanje računaru na Enterpriseu, a on hladno odgovara da nema dovoljno podataka za odgovor.

„To nije ono što danas dobijamo. Današnji AI često daje previše samouvjerene odgovore. Možda nam je potreban AI koji govori nalik računaru iz Zvjezdanih staza, gdje nikada ne biste pomislili da je ljudsko biće.“

NAJNOVIJE

Ostalo iz kategorije

Najčitanije