Umjetna inteligencija bi mogla biti rješenje, ali i tu postoji veliki problem, piše Deutsche Welle.
Prošlo je više od godinu dana otkako je Rusija započela agresorski
rat u Ukrajini. Količina dezinformacija u vezi s tim ratom koja se
pojavila na društvenim mrežama je ogromna. One se šire putem
influencera, botova ili lažnih profila. Svakodnevno milijarde korisnika
objavljuju sadržaje na platformama društvenih mreža kao što su Twitter,
Instagram, Facebook i TikTok, i pritom se uvijek iznova šire laži.
Međutim, o dezinformaciji se radi tek kada se pogrešne informacije šire
ciljano, odnosno kada iza njihovog širenja postoji namjera.
Pronalaženje dezinformacija na platformama društvenih medija je poput
traženja igle u milijunima plastova sijena – beskonačna potraga. Već
dugo nitko nije u stanju tome stati na kraj. Čini se da je umjetna
inteligencija jedino i možda spasonosno rješenje. Ali kuda ovo vodi?
Istraživanje mreže ili sadržaja
Da bi umjetna inteligencija mogla prepoznati dezinformacije, ona se
trenira skupovima podataka. Skupove podataka kreiraju ljudi i pomoću
njih umjetna inteligencija uči što se smatra dezinformacijom, a što ne.
Dezinformacije se mogu prepoznati po različitim karakteristikama. “S
jedne strane, radi se o razvoju AI-ja koji je sposoban prepoznati
raspoloženja, odnosno emocije, pa sve do izražavanja mišljenja”, kaže
Dengel. AI u tu svrhu analizira sadržaje tj. tekstove, videosnimke ili
fotografije. Poseban problem su unakrsne reference. Slika i tekst
zajedno mogu poprimiti potpuno novo značenje.
S druge strane, mrežne strukture također mogu ukazati na
dezinformacije. Alexander Schindler, vodeći stručnjak na Austrijskom
institutu za tehnologiju (AIT), kaže: “Postoje predlošci komunikacije,
na primjer botovi za širenje lažnih vijesti, tj. automatizirani
korisnički računi na društvenim mrežama koji šire dezinformacije ili
propagandu.” AI također može analizirati čvorišta između korisničkih
računa ili reakcije na neku objavu. Analizom rezonanci može se vidjeti
je li korisnik neutralno reagira na sadržaj, kritizira ga ili potvrđuje.
AI je jak samo kao koncept
Dezinformacija sama po sebi pak predstavlja slab koncept.
“Dezinformacija se teško može definirati”, kaže Schindler. “Definicija
ovisi o mnogo faktora, kao što su politički ili vjerski pogledi, pa je
njezino jedinstveno ili standardizirano označavanje skoro nemoguće.”
Aktualni istraživački projekti u čijem fokusu je umjetna
inteligencija u zemljama njemačkog govornog područja stoga se više bave
time kako da u tom segmentu pruže podršku radu ljudi. Jedna je ideja iz
AIT-a, na primjer, da se sadržaju da tabela nutricionističkih
vrijednosti, slično kao što se radi s prehrambenim namirnicama.
Istraživački centar Correctiv u suradnji sa Sveučilištem Ruhr u Bochumu i
Tehničkim sveučilištem u Dortmundu također radi na projektu u kojem AI
ima za cilj podržati sudionike procesa klasifikacije informacija.
Platforme rade pomoću kombinacije tehnologija
Platforme društvenih mreža skoro da ne dozvoljavaju da im se pogleda u
karte. Prepoznatljive su samo tendencije. “One rade pomoću mješavine
različitih tehnologija,” kaže Dengel iz DFKI-a. “To varira i od
platforme do platforme. Prije svega, puno se eksperimentira.” Meta,
Twitter ili TikTok imaju veliki interes da napreduju u razvoju umjetne
inteligencije – njezinom upotrebom bi se, između ostalog, mogla ukinuti
mnoga radna mjesta.
Međutim, ako na platformama društvenih medija pak postoji umjetna
inteligencija koja otkriva dezinformacije, a da čovjek ne mora još
jednom provjeriti tu odluku, metode bi morale biti vrlo točne. “A to se
vjerojatno može postići samo ako se obujam djelovanja ozbiljno
ograniči”, kaže Schindler iz AIT-a. To znači da bi dezinformacije prije
svega bile prepoznate kada se radi o jasnim slučajevima. Drugi
slučajevi, suptilniji, mogli bi ostati neotkriveni. Koristi li se i kako
ova tehnologija, to se izvana ne može jasno procijeniti.
Europska unija je usvojila Zakon o digitalnim uslugama tako da će
platforme društvenih medija ubuduće morati objavljivati više informacija
i tako postati transparentnije. Ta uredba sadrži brojne novine. Od
veljače 2024., na primjer, platforme moraju obavijestiti korisnike zašto
su blokirale ili izbrisale sadržaje. Ako se operateri platforme ne
pridržavaju ovih zahtjeva, prijeti im izricanje novčanih kazni.
Ključna je definicija dezinformacije
I kod ovog pitanja može doći do poteškoća. “Sustav nešto klasificira
kao dezinformaciju, ali ne može objasniti zašto”, kaže Dengel. “Možda su
podaci koji su korišteni za trening AI-ja bili iskrivljeni ili
nepotpuni, ili primjeri nisu bili izbalansirani. Sustavi koji
objašnjavaju ili opravdavaju te odluke trenutno se intenzivno
istražuju.”
To bi pak u budućnosti mogao biti veliki problem u borbi AI-ja protiv
dezinformacija. Sadržaji se, naime, ne mogu tek tako izbrisati ili se
ograničiti njihove vidljivosti, prvenstveno ne bez dodatnog
obrazloženja.
Prema mišljenju stručnjaka, ne postoji način da se zaobiđe umjetna
inteligencija. “To što se polazi od toga da je AI spas – to je
jednostavno pogrešno”, kaže Schindler iz AIT-a. Na kraju krajeva, AI je u
otkrivanju dezinformacija dobar samo onoliko koliko su dobre zadane
smjernice. Najvažniji posao, a to je definicija dezinformacija, one ne
mogu obaviti. To je posao programera.