Šef OpenAI-a javno je priznao da vještačka inteligencija nosi ozbiljne rizike i da kompanija već vidi negativne posljedice u praksi.
U retkom javnom priznanju o rizicima vještačke inteligencije, Sem Altman, direktor OpenAI, istakao je da AI modeli i agenti sve češće otkrivaju kritične bezbjednosne ranjivosti i predstavljaju ozbiljne izazove za bezbjednost i mentalno zdravlje.
Ovaj korak označava promjenu tona u odnosu na ranija saopštenja kompanije, koja su se više fokusirala na koristi i potencijal tehnologije, a manje na opasnosti.
Altman je na platformi X objavio da AI sistemi, sada sposobni za složenije operacije, mogu da identifikuju ozbiljne propuste u računarskim bezbjednosnim sistemima i da njihova autonomija podiže novo pitanje rizika. U cilju rješavanja ovih problema, OpenAI je raspisao oglas za poziciju “Head of Preparedness”, sa godišnjom platom od 555.000 dolara plus akcije, koju će popuniti stručnjak za upravljanje rizicima i bezbednosnim pretnjama.
Ovaj potez dolazi dok raste globalna zabrinutost zbog AI moći da se koristi u sajber napadima, ali i zbog uticaja takvih modela na mentalno zdravlje korisnika. Altman je posebno naglasio da OpenAI već vidi potencijalne negativne posljedice u praksi i da kompanija intenzivira napore da izgradi okvire koji mogu da zaštite korisnike i sisteme od zloupotrebe.
Pored pitanja bezbjednosti, Altman je upozorio i na psihološki uticaj naprednih modela, koji, prema njegovim riječima, mogu da utiču na mentalno stanje korisnika ako se koriste bez adekvatne kontrole i podrške stručnjaka. Ovo priznanje dolazi u trenutku kada se širom sveta pojačava debata o tome kako regulisati i bezbjedno implementirati inteligentne sisteme.
Ukupno, ova izjava predstavlja značajan pomak u javnoj retorici jednog od najuticajnijih lidera u industriji vještačke inteligencije, ističući da tehnologija koja donosi koristi takođe nosi ozbiljne rizike koje treba strateški adresirati.