On je predvidio krizu lažnih vijesti 2016. godine. Sada se plaši da nam predstoji apokalipsa informacija

Sredinom 2016. godine Aviv Ovadya je shvatio da je nešto veoma
pogrešno sa internetom— toliko pogrešno da je ostavio svoj posao i oglasio
uzbunu. Nekoliko sedmica prije predsjedničkih izbora u Americi 2016. godine,
izrazio je svoju zabrinutost tehnolozima u San Francisku i upozorio na dolazeću
krizu dezinformacija u prezentaciji naslovljenoj “Infocalypse”, piše BuzzFeed News.

Informacioni
ekosistem koji se razvio na Internetu je veoma nezdrav, tvrdi Ovadya u svojoj
prezentaciji. Najveće platforme na Internetu su tako programirane da nagrađuju
informacije koje često zavaravaju ljude ili produbljuju društvene podjele, ili i
jedno i drugo. Platforme kao što su Facebook, Twitter, i Google prednost daju
klikovima, dijeljenjima, reklamama i novcu nad kvalitetom informacija, i Ovadya
se nije mogao osloboditi osjećaja da sve to vodi ka nečemu lošem — nekoj vrsti
kritičnog praga zaraznih i toksičnih dezinformacija.
Njegovu prezentaciju su
tada najvećim dijelom ignorisali.

Ovadya je
mjesecima prije svih drugih vidio da su naše platforme i algoritmički optimizovan
svijet ranjivi na propagandu i dezinformacije, do te mjere da to podriva
temelje našeg ljudskog diskursa: kredibilitet činjenica.

- TEKST NASTAVLJA ISPOD OGLASA -

Ali ono što će
nas istinski uplašiti jeste ono što Ovadya dalje predviđa.

Budućnost će
donijeti jednostavnu i neprimijetnu tehnologiju za manipulisanje percepcije i
lažiranje stvarnosti.

Zbog toga je
Ovadya, koji je diplomirao na MIT-u i radio kao inženjer za tehnološke
kompanije kao što je Quora, ostavio sve početkom 2016. godine da bi pokušao
spriječiti ono što je vidio kao krizu informacija.

- TEKST NASTAVLJA ISPOD OGLASA -

Danas Ovadya i
grupica istraživača i akademskih radnika zabrinuto gledaju u budućnost, koja je
alarmantno distopijska. Oni prave scenarije na osnovu tehnologija koje su
počele da se pojavljuju i rezultati su obeshrabrujući.

Za Ovadya — koji
je sada glavni tehnolog u Centru za odgovornost društvenih medija na Univerzitetu
u Mičigenu i stipendista programa inovacija Knight News u Centru za digitalnu
žurnalistiku na Kolumbiji — šok i zabrinutost zbog ruskih reklama na Facebooku i
botova na Twitteru blijedi u poređenju sa većom prijetnjom: Tehnologije koje se
mogu upotrijebiti da prošire i iskrive stvarnost razvijaju se brže od naše
sposobnosti da ih razumijemo, kontrolišemo ili ublažimo.
Moguće posljedice su
katastrofalnije od uplitanja stranih država u izbore — podrivanje ili rušenje
osnovnih institucija civilizacije, “infokalipsa”.

Situacija je
sve gora zbog toga što smo sve vještiji u korištenju kompjutera; gora zbog
stalnog napretka umjetne inteligencije i mašinskog učenja koje može brisati
granice između činjenica i fikcije; gore zbog toga što bi nas te stvari mogle
odvesti u budućnost gdje bi svako mogao pokazati da se nešto dogodilo, bez
obzira da li zaista jeste.

Ovadya upozorava
da bi brzorazvijajuća umjetna inteligencija, mašinsko učenje i proširena
stvarnost mogli biti zloupotrebljeni kako bi se vodio informativni rat.

I bliže smo
nego što mislimo potencijalnoj infokalipsi. Već dostupni alati za audio i video
manipulaciju počeli su da izgledaju kao potencijalne lažne vijesti
. U mračnim
kutovima interneta, ljudi su počeli koristiti algoritme mašinskog učenja i open-source programe da jednostavno
naprave pornografske video snimke koji realistično montiraju lica slavnih
ličnosti ili bilo koga drugog na tijelo glumaca. U institucijama kao što je
Stanford, tehnolozi su napravili programe pomoću kojih se može manipulisati video
snimcima tako što se u realnom vremenu mogu pronaći lica ljudi i montirati u
videu. Slično, na Univerzitetu u Vašingtonu kompjuterski stručnjaci napravili
su program koji može pretvoriti audio snimke u realističan video osobe koja
izgovara te riječi.

Kako ovi alati
budu dostupni za široku upotrebu, Ovadya upozorava da bi najgori scenario mogao
biti izuzetno destabilizujući.

Postoji
diplomatska manipulacija, u kojoj maliciozni akteri koriste naprednu
tehnologiju da stvore uvjerenje da se događaj desio i da tako utiču na
geopolitiku.
Zamislite, na primjer, algoritam mašinskog učenja (koji analizira
gomilu podataka kako bi sebe naučio da izvrši određenu funkciju) u koji je
pohranjeno na stotine sati snimaka Donalda Trumpa ili sjevernokorejskog
diktatora Kim Jong Una, i koji onda može izbaciti gotovo savršene i gotovo nerazlučive
od stvarnosti – audio ili video snimke ovih lidera kako proglašavaju nuklearni
ili biološki rat. “To ne mora biti savršeno – samo dovoljno dobro da bi navelo
neprijatelja da pomisli da se nešto desilo i da isprovocira refleksnu reakciju
kao odmazdu.”

Drugi scenario
je zloupotreba političkih botova koji manipulišu politikom lažnim građanskim
inicijativama
. U njegovim predviđanjima, sve uvjerljiviji botovi koje pokreće
umjetna inteligencija biće sposobni da se ravnopravno takmiče sa pravim ljudima
za pažnju zakonodavaca jer će biti suviše teško uočiti razliku. Uskoro će možda
biti moguće direktno  zatrpati ekrane u
Kongresu srceparajućim, uvjerljivim algoritmički proizvedenim molbama građana. Slično
tome, senatora bi mogli biti bombardovani elektronskim porukama od građana koje
je sastavio mašinski program koji radi tako što spaja dijelove sadržaja
preuzetih sa društvenih mreža.

Zatim postoji
taktika o kojoj, kaže Ovadya, stručnjaci za bezbjednosti već šapuću. Umjetna
inteligencija se koristi da skenira stvari kao što je naše prisustvo na
društvenim mrežama i da napravi lažne ali uvjerljive poruke od ljudi koje
znamo. Prema mišljenju Ovadya, to omogućava zlonamjernima da odaberu bilo koga
i da naprave uvjerljivu imitaciju te osobe koristeći podatke dostupne javnosti.

 “Prije je bilo potrebno da čovjek oponaša
nečiji glas ili da napravite autentičan lažni razgovor – u ovoj verziji možete
samo pritisnuti dugme koristeći javno dostupan softver,” kaže Ovadya. “To je
novina – kada svako to može raditi jer je trivijalno. Onda je to potpuno druga
priča.”

Zamislite, kaže
Ovadya za BuzzFeed, poruke koje pokušavaju da izvuku povjerljive informacije
kao što su šifre, brojevi kreditnih kartica i slično, pretvarajući se da stižu
od provjerenog izvora. “Ne samo neki email, već email od prijatelja kojeg ste
već neko vrijeme nestrpljivo očekivali da se javi,” kaže on. “I zbog toga što
bi bilo lako napraviti stvari koje su lažne, bili biste preplavljeni takvim
porukama. Ako bi svaki spam koji primate izgledao identično mailovima od
stvarnih ljudi koje poznajete, a svako od njih pokušava da vas ubijedi u nešto,
vi biste na kraju rekli, u redu, ignorisaću svoju inbox.’”

To može
dovesti do apatije: zatrpani lavinom konstantnih dezinformacija, ljudi će
jednostavno početi da odustaju. Ljudi će prestati obraćati pažnju na vijesti i
taj temeljni nivo informisanosti potreban za funkcionalnu demokratiju postaće
nestabilan.

Pored toga,
postoje i drugi zastrašujući scenariji koje Ovadya opisuje, kao što je crno
tržište društvenih medija sa ljudima umjesto botova. “To je buduće međunarodno
tržište za naivne ljude,” kaže on.

Njegova predviđanja
su naročito zastrašujuća imajući u vidu lakoću sa kojom su demokratska društva
već izmanipulisana najrudimentarnijim tehnikama dezinformisanja. Prevare, obmane
i zbunjivanje koje slijede nisu ništa novo; samo će to biti sofisticiranije,
teže za uočiti i djelovaće zajedno sa drugim tehnološkim silama koje ne samo da
nisu poznate, već su teške za predvidjeti,
tvrdi Ovadya u intervjuu za
BuzzFeed.

Za one koji
obraćaju pažnju na razvoj umjetne inteligencije o mašinskog učenja, ništa od
ovog se ne čini kao nešto posebno. Softver koji trenutno razvija proizvođač
čipova Nvidia već može napraviti ubjedljve hiperrealistične slike predmeta,
ljudi i čak neke pejzaže na osnovu desetina hiljada slika. Adobe trenutno pilotira
dva projekta Voco i Cloak — prvi je “photoshop za audio”, a drugi je alat koji
može neprimijetno ukloniti predmete i ljude iz videa u samo nekoliko poteza.

Erozija
autentičnosti i integriteta zvaničnih izjava je najopasnija i najalarmantnija od
ovih budućih prijetnji.
“Bilo da je umjetna inteligencija, naročito
manipulativni hakovi ili lažni politički aktivizam – ove tehnologije vode ka
sve većoj eroziji povjerenja,” kazao je istraživač kompjuterizovane propagande Renee
DiResta. “To omogućava bacanje sumnje u vezi sa tim da li su video snimci ili
zagovaračke kampanje stvarni.” Ne morate lažirati video da biste imali ozbiljan
uticaj. Samo ukažete na činjenicu da postoji tehnologija koja to omogućava i
možete osporiti integritet nečega što je stvarno.

 “Ja pripadam slobodnoj i open source kulturi — cilj nije da se
zaustavi tehnologija već da se osigura da smo u ekvilibriju koji je pozitivan
za ljude.
Tako da ja ne upozoravam samo da će se “to desiti”, već govorim “ozbiljno
razmotrite I preispitajte posljedice,” kazao je Ovadya za BuzzFeed News.

Ovadya je ipak
optimista
. Više je interesovanja za kompjutersku propagandu nego ikada ranije i
oni koji su ranije oklijevali da shvate ozbiljno ove prijetnje sada su mnogo
otvoreniji za upozorenja. Takođe, postoje i moguća rješenja, kao što je
kriptografska verifikacija slika i audio snimaka, koja bi mogla pomoći u
razlikovanju stvarnosti od manipulacije.

Ovadya i drugi
upozoravaju da će narednih nekoliko godina biti teško jer Internet platformama
još uvijek upravljaju pogrešni, senzacionalistički motivi, gdje su clickbait i
sadržaji lošijeg kvaliteta nagrađeni većom pažnjom. “To je tvrd orah za
slomiti, a kada to još spojite sa sistemom kao što je Facebook, koji ubrzava
sadržaj, to postaje veoma opasno.”

 

NAJNOVIJE

Ostalo iz kategorije

Najčitanije