AI je postao autor naučnih članaka. Digla se velika uzbuna

U NAJMANJE četiri novija znanstvena članka umjetna inteligencija navedena je kao koautor studije, upozorio je nedavno u Nature Newsu znanstveni novinar Chris Stokel-Walker.

Ovakva praksa, mada tek u začetku, pokrenula je u znanstvenoj
zajednici polemike oko pitanja ima li smisla pripisivati autorstvo
sustavima umjetne inteligencije i zašto nema, ako nema? Kada AI prestaje
biti samo alat, neka naprednija verzija pretraživača, sakupljača
informacija ili jezičnog oblikovatelja podataka u formu teksta? Koje bi
uvjete trebao ispunjavati AI da bi se mogao smatrati koautorom
znanstvenih radova? Hoće li akademska zajednica u nekom trenutku ipak
morati prihvatiti autorstvo AI-ja?

ChatGPT kao prijetnja nastavnicima

Konkretno, riječ je o četiri znanstvena rada u kojima je kao koautor
naveden sustav za obradu teksta ChatGPT, koji je prošle godine
predstavio OpenAI, kalifornijska kompanija koja se bavi razvojem umjetne
inteligencije. Podsjetimo, taj je sustav izazvao veliko uzbuđenje u
tehnološkom svijetu jer se pokazalo da ima fascinantne sposobnosti
kreiranja teksta tako da jako nalikuje tekstu koji je napisao čovjek.

- TEKST NASTAVLJA ISPOD OGLASA -

Pokazalo se da može napisati toliko kvalitetne eseje na različite
teme i odgovore na pitanja iz testova da ih je teško razlikovati od
studentskih. Štoviše, neki profesori izrazili su egzistencijalni strah
jer se pokazalo da je ChatGPT uspio brže procijeniti valjanost nekih
studentskih radova od njih samih, što znači da bi ih uskoro mogao
zamijeniti u nekim važnim dijelovima njihovog posla.

No, s druge strane u međuvremenu se također pokazalo da ChatGPT u
ovom stupnju razvoja radi brojne pogreške čak i kada rješava relativno
jednostavne logičke ili matematičke zadatke. Stručnjaci ističu da je
razlog tome, među ostalim, činjenica da ChatGPT ne razmišlja na isti
način kao što ljudi razmišljaju, ne provjerava niti promišlja svoje
odgovore jer su mu algoritmi takvi da izbaci onaj koji se najčešće
povezuje s ključnim riječima u pitanju.

Konačno, sustav bi trošio prevelike količine energije kada bi o
svakom postavljenom pitanju promišljao i provjeravao svoje odgovore
onako kako to ljudi rade.

>>Kad će AI postati pametniji od ljudi i što tada? Posljedice bi mogle biti ogromne 

Krenule zabrane ChatGPT-ja u školama

Škole u New Yorku brzo su reagirale na izazove ChatGPT-ja i zabranile
njegovo korištenje zbog straha da bi ga učenici mogli upotrijebiti za
varanje.

Prema gradskom odjelu za obrazovanje, alat će biti zabranjen na svim uređajima i mrežama u javnim školama u New Yorku.

Jenna Lyle, glasnogovornica odjela, rekla je da postoji opravdana
zabrinutost da bi ChatGPT mogao imati negativan utjecaj na učenje
učenika te da bi mogao kreirati lažne vijesti.

“Iako alat može dati brze i jednostavne odgovore na pitanja, on kod
učenika ne razvija vještine kritičkog razmišljanja i rješavanja
problema, koje su ključne za akademski i cjeloživotni uspjeh”, rekla je
Lyle.

S druge strane neki smatraju da potencijal ChatGPT-ja kao obrazovnog
alata nadmašuje njegove rizike te da se škole trebaju prilagoditi kako
bi pripremile učenike za budućnost koja će obilovati raznim vrstama
sposobnih AI alata. Osobito zato što će njihovo korištenje uskoro
postati nemoguće otkrivati i zabranjivati.

Četiri članka u kojima se ChatGPT navodi kao autor

U tekstu u Nature Newsu predstavljaju se četiri znanstvena članka u kojima je ChatGPT naveden kao koautor.

Jedan od primjera je članak o korištenju ChatGPT-ja za medicinsko obrazovanje, objavljen na medicinskom repozitoriju medRxiv
u prosincu prošle godine. U njemu je 12 autora ocijenilo izvedbu
ChatGPT-ja na ispitu za medicinsko licenciranje Sjedinjenih Država
(USMLE), koji se sastoji od tri ispita.

“ChatGPT je prošao prag prolaznosti ili je bio blizu tome da prođe na
sva tri ispita bez ikakve specijalizirane obuke ili poboljšanja. Osim
toga, ChatGPT je pokazao visoku razinu usklađenosti i uvida u svoja
objašnjenja. Ovi rezultati sugeriraju da veliki jezični modeli mogu
imati potencijal za pomoć u medicinskom obrazovanju, a potencijalno i u
donošenju kliničkih odluka“, zaključili su autori u studiji.

Tim koji stoji iza repozitorija medRxiv, kao i sestrinskog bioRxiva,
upustio se u raspravu o tome je li prikladno koristiti alate kao što je
ChatGPT pri pisanju članka te kako službeno priznati ulogu AI-ja u
znanstvenom radu.

Suosnivač repozitorija Richard Sever, pomoćnik direktora Cold Spring
Harbor Laboratory Pressa u New Yorku, smatra da bi se konvencije po tom
pitanju s vremenom mogle promijeniti.

“Moramo razlikovati formalnu ulogu autora znanstvenog rada od
općenitijeg pojma autora kao pisca dokumenta”, istaknuo je Sever.
Autori, kaže, preuzimaju pravnu odgovornost za svoj rad pa bi u tom
svojstvu trebalo navoditi samo osobe.

“Naravno, ljudi mogu pokušati podvaliti nešto drugačije. Već se
događalo u prošlosti da su ljudi na medRxivu kao autore članaka navodili
kućne ljubimce, izmišljene ljude itd., no to je pitanje provjere, a ne
pitanje politike”, pojasnio je.

Drugi primjer znanstvenog članka u kojem je kao autor naveden ChatGPT
je uvodnik “Otvorene platforme umjetne inteligencije u obrazovanju
medicinskih sestara: Alati za akademski napredak ili zloporaba?”
objavljen u časopisu Nurse Education in Practice
od siječnja. U njemu je glavna autorica bila Siobhan O’Connor,
istraživačica zdravstvene tehnologije na Sveučilištu u Manchesteru u
Velikoj Britaniji.

Roger Watson, glavni urednik časopisa, kaže da je u ovom slučaju
pripisivanje autorstva prošlo greškom te da će ona uskoro biti
ispravljena.

“To je bio propust s moje strane”, kaže, jer uvodnici prolaze kroz drugačiji sustav upravljanja od istraživačkih radova.

Treći primjer je članak “Rapamicin u kontekstu Pascalove oklade: perspektiva GPT-ja” objavljen prošli mjesec u časopisu Oncoscience. U
njemu je glavni autor Alex Zhavoronkov, izvršni direktor Insilico
Medicine, tvrtke za istraživanje lijekova uz pomoć umjetne inteligencije
u Hong Kongu, naveo ChatGPT kao prvog autora.

Zhavoronkov tumači da je njegova tvrtka objavila već više od 80 radova proizvedenih generativnim AI alatima.

“Nismo novi u ovom području”, kaže Zhavoronkov. Najnoviji rad
raspravlja o prednostima i manama uzimanja lijeka Rapamicina, u
kontekstu filozofskog argumenta zvanog Pascalova oklada. ChatGPT je
napisao puno bolji članak od prethodnih generacija generativnih AI
alata, objasnio je za Nature News Zhavoronkov.

Četvrti primjer je članak koji je napisao chatbot GPT-3, koji je
objavljen u lipnju 2022. na francuskom poslužitelju za preprint HAL.
Njegova glavna autorica Almira Osmanovic Thunström, neurobiologinja sa
Sveučilišta u Göteborgu u Švedskoj, kaže da je jedan časopis prihvatio
GPT-3 kao koautora nakon što je ona iznova napisala članak kako bi
udovoljila zahtjevu recenzenata.

AI ne ispunjava ključne uvjete propisane za autore

Kad je riječ o autorstvu u znanstvenim radovima, bitno pitanje na
koje treba odgovoriti je ispunjava li AI, odnosno ChatGPT, uvjete koji
se očekuju od znanstvenika autora.

Urednici znanstvenih časopisa i repozitorija na kojima se objavljuju
znanstveni radovi koje su kontaktirali novinari Nature Newsa slažu se da
ih umjetna inteligencija kao što je ChatGPT ne ispunjava.

Kao jedan od glavnih razloga ističu činjenicu da AI ne može preuzeti
odgovornost za sadržaj i integritet znanstvenih radova. Također
napominju da je ChatGPT sklon pogreškama te da na drugačiji način
postavljeno isto pitanje daje različite odgovore.

Prof. dr. sc. Livia Puljak s Hrvatskog katoličkog sveučilišta u
Zagrebu, koja se bavi znanstvenom metodologijom, kaže da AI trenutno ne
ispunjava neke ključne uvjete koje moraju zadovoljiti autori znanstvenih
radova.

“U biomedicini je Međunarodna udruga biomedicinskih urednika (ICMJE)
postavila četiri kriterija autorstva. Prvi kriterij je značajan doprinos
u osmišljavanju ili oblikovanju djela; ili skupljanju, analizi ili
interpretaciji podataka za djelo. Drugi kriterij je pisanje djela ili
kritičko revidiranje važnog intelektualnog sadržaja u djelu. Treći
kriterij je odobravanje konačne verzije djela za objavu. Četvrti
kriterij je suglasnost za prihvaćanje odgovornosti za sve dijelove rada,
kako bi se zajamčila mogućnost da će se pitanja koja se odnose na
točnost ili integritet bilo kojeg dijela rada prikladno istražiti i
riješiti.

Umjetna inteligencija sasvim sigurno ne može udovoljiti zadnjim dvama
uvjetima – ne može dati suglasnost za objavu zadnje verzije djela i ne
može biti odgovorna za sve dijelove rada“, ističe Puljak.

Nadalje ističe da se ChatGPT ne može koristiti za stvaranje svih vrsta znanstvenih članaka, već samo nekih.

“On se oslanja na golemu količinu znanja dostupnu na internetu,
temeljem čega stvara tekst. ChatGPT ne može, primjerice, provesti
istraživanja u laboratoriju, na životinjama i na čovjeku te na taj način
stvoriti nova istraživanja. No, on može napraviti ne-sustavni pregled
znanstvene literature na zadanu temu. Zbog toga je doseg ChatGPT-ja u
znanosti vrlo ograničen“, kaže Puljak.

Također upozorava da se znanstvenici ne bi smjeli oslanjati na
ChatGPT jer on na raspolaganju ima ograničene podatke o najnovijim
znanstvenim probojima.

“Iako se navodi da se temelji na 570 GB podataka, odnosno 300
milijardi riječi, ima ograničene podatke o najnovijim informacijama u
svijetu. Za zbivanja, primjerice, u protekloj godini, model će na
raspolaganju imati ograničeno znanje i model može povremeno proizvesti
lažne ili zbunjujuće informacije“, tumači Puljak.

Spomenuti AI, ali ne među autorima

Posljednjih godina razvija se sve više sustava umjetne inteligencije
koji se mogu koristiti u znanstvenim istraživanjima. Primjerice,
DeepMindov AlphaFold je u 2022. identificirao 3D strukturu više od 200
milijuna oblika proteina životinja i ljudi, praktički svih koji su nam
poznati.

Tvrtka Wolfram Research razvila je jedan od najpoznatijih
matematičkih programa, Wolfram Alphu, koji je osmišljen da pruža
odgovore na širok raspon pitanja, uključujući matematička, znanstvena,
povijesna i geografska. Jedna od njegovih ključnih značajki je
sposobnost logičke obrade unesenog prirodnog jezika i generiranja točnog
izlaznog rezultata u obliku teksta, slika i interaktivnih
vizualizacija.

Ovi alati, kao i brojni drugi, u skoroj bi budućnosti mogli postati
vrlo korisni u znanstvenim istraživanjima. To nameće pitanje na koji
način priznati njihov važan doprinos nekom znanstvenom istraživanju.

Neki izdavači smatraju da bi se to moglo učiniti u nekim dijelovima radova, ali da se AI ne bi smio navoditi u popisu autora.

Prof. Puljak smatra da bi autori koji koriste AI kao pomoć u pisanju
članaka to trebali navesti na kraju znanstvenog članka u odjeljku
“Zahvale“ (engl. Acknowledgements).

“U tom dijelu članka autori obično zahvaljuju onima koji su nešto
pomogli, ali nisu ispunili uvjete za autorstvo. ChatGPT mogao bi se
smatrati takvom kategorijom jer je doprinio stvaranju dijela teksta, ali
ne može se smatrati autorom“, poručuje Puljak.

Tako stvari stoje za sada. Što će donijeti budućnost i hoće li u
nekom trenutku AI ispuniti sve navedene uvjete za autora znanstvenih
članaka, pokazat će vrijeme.

Index

NAJNOVIJE

Ostalo iz kategorije

Najčitanije