Istog dana kada je Donald Tramp inaugurisao sebe za predsjednika, kineska kompanija DeepSeek objavila je vrhunski model velikih jezika (LLM). To je bio poziv na buđenje, primijetio je gospodin Tramp. Mark Warner, potpredsjedavajući Obavještajnog odbora Senata, kaže da je američka obavještajna zajednica (IC), grupa od 18 agencija i organizacija, bila “zatečena nespremna”.
Prošle godine Bajdenova administracija postala je zabrinuta da bi kineski špijuni i vojnici mogli prednjačiti u usvajanju vještačke inteligencije (AI). Naredila je svojim obavještajnim agencijama, Pentagonu i Ministarstvu energetike (koje proizvodi nuklearno oružje), da agresivnije eksperimentišu s najsavremenijim modelima i da bliže sarađuju s “graničnim” laboratorijama za vještačku inteligenciju – prvenstveno Anthropic, Google DeepMind i OpenAI.
Pentagon je 14. jula dodijelio ugovore vrijedne do 200 miliona dolara kompanijama Anthropic, Google i OpenAI, kao i Elon Muskovom xAI-u – čiji se chatbot nedavno (i nakratko) predstavio kao Hitler nakon što je ažuriranje krenulo po zlu – za eksperimentisanje s “agentskim” modelima. Oni mogu djelovati u ime svojih korisnika tako što će složene zadatke razbiti na korake i vršiti kontrolu nad drugim uređajima, poput automobila ili računara.
Granične laboratorije su zauzete i u špijunskom svijetu, kao i u vojnom. Veliki dio ranog usvajanja bio je u području LLM chatbotova koji obrađuju strogo povjerljive podatke. U januaru je Microsoft saopštio da je 26 njihovih proizvoda za računarstvo u oblaku odobreno za upotrebu u špijunskim agencijama. U junu je Anthropic saopštio da je pokrenuo Claude Gov, koji je “već raspoređen od strane agencija na najvišem nivou nacionalne sigurnosti SAD”. Modeli se sada široko koriste u svakoj američkoj obavještajnoj agenciji, zajedno s onima iz konkurentskih laboratorija.
Firme koje se bave umjetnom inteligencijom obično fino podešavaju svoje modele kako bi odgovarali špijunima. Claude, Anthropicov model usmjeren prema javnosti, može odbiti dokumente s povjerljivim oznakama kao dio svojih opštih sigurnosnih karakteristika; Claude Gov je prilagođen kako bi se to izbjeglo. Takođe ima „poboljšanu vještinu“ u jezicima i dijalektima koji bi vladinim korisnicima mogli biti potrebni. Modeli obično rade na sigurnim serverima koji nisu povezani s javnim internetom. Nova vrsta agentskih modela sada se gradi unutar agencija.
Isti proces je u toku i u Evropi. „U generativnoj umjetnoj inteligenciji pokušali smo biti vrlo, vrlo brzi sljedbenici graničnih modela“, kaže britanski izvor. „Svi u UKIC-u (britanskoj obavještajnoj zajednici) imaju pristup strogo povjerljivim (LLM) mogućnostima.“ Mistral, francuska firma i jedini pravi evropski prvak umjetne inteligencije, ima partnerstvo s AMIAD-om, francuskom vojno-AI agencijom. Mistralov Saba model je obučen na podacima s Bliskog istoka i iz Južne Azije, što ga čini posebno vještim u arapskom i manjim regionalnim jezicima, poput tamilskog. U januaru je časopis +972 izvijestio da je upotreba GPT-4, tada najnaprednijeg LLM-a kompanije OpenAI, od strane izraelskih oružanih snaga porasla 20 puta nakon početka rata u Gazi.
Uprkos svemu ovome, napredak je bio spor, kaže Katrina Mulligan, bivša zvaničnica odbrane i obavještajnih službi koja vodi partnerstva OpenAI-a u ovom području. „Usvajanje vještačke inteligencije u prostoru nacionalne sigurnosti vjerovatno još nije tamo gdje želimo da bude.“ NSA, američka agencija za signalno-obavještajnu analizu, koja je decenijama radila na ranijim oblicima vještačke inteligencije, poput prepoznavanja glasa, predstavlja središte izvrsnosti, kaže izvor iznutra. Ali mnoge agencije i dalje žele izgraditi vlastite „omotače“ oko chatbotova laboratorija, proces koji ih često ostavlja daleko iza najnovijih javnih modela.
„Transformacijski dio nije samo korištenje kao chatbota“, kaže Tarun Chhabra, koji je vodio tehnološku politiku za Vijeće nacionalne sigurnosti Joea Bidena, a sada je šef politike nacionalne sigurnosti u Anthropicu. „Transformacijski dio je: kada jednom počnete da ga koristite, kako onda da reorganizujem način na koji obavljam misiju?“
Skeptici vjeruju da su ove nade preuveličane. Richard Carter iz Instituta Alan Turing, britanskog nacionalnog instituta za umjetnu inteligenciju, tvrdi da ono što obavještajne službe u Americi i Britaniji zaista žele jeste da laboratorije značajno smanje “halucinacije” u postojećim LLM-ovima. Britanske agencije koriste tehniku pod nazivom “proširena generacija pronalaženja”, u kojoj jedan algoritam traži pouzdane informacije i dostavlja ih LLM-u, kako bi se minimizirale halucinacije, kaže neimenovani britanski izvor. “Ono što vam je potrebno u IC-u je konzistentnost, pouzdanost, transparentnost i objašnjivost”, upozorava dr. Carter. Umjesto toga, laboratorije se fokusiraju na naprednije agentske modele.
Smatra se da je Mistral, na primjer, potencijalnim klijentima pokazao demonstraciju u kojoj je svaki tok informacija, poput satelitskih snimaka ili presretanja glasa, uparen s jednim AI agentom, ubrzavajući donošenje odluka. Alternativno, zamislite AI agenta zaduženog za identifikaciju, istraživanje i zatim kontaktiranje stotina iranskih nuklearnih naučnika kako bi ih potaknuo da prebjegnu. “Nismo dovoljno razmišljali o tome kako bi se agenti mogli koristiti u ratnom kontekstu”, dodaje g. Chhabra.
Problem s agentskim modelima, upozorava dr Carter, je taj što oni rekurzivno generiraju vlastite upite kao odgovor na zadatak, što ih čini nepredvidljivijima i povećava rizik od gomilanja grešaka. Najnoviji agentski model OpenAI-a, ChatGPT agent, halucinira u oko 8% odgovora, što je veća stopa od ranijeg o3 modela kompanije, prema evaluaciji koju je objavila firma.
Neke AI laboratorije vide takve probleme kao birokratsku rigidnost, ali to je jednostavno zdrav konzervativizam, kaže dr. Carter. „Ono što imate, posebno u GCHQ-u“, kaže on, misleći na britanskog kolegu NSA, „jeste nevjerovatno talentovana inženjerska radna snaga koja je prirodno prilično skeptična prema novim tehnologijama.“
Ovo se takođe odnosi na širu debatu o tome gdje leži budućnost umjetne inteligencije. Dr. Carter je među onima koji tvrde da arhitektura današnjih LLM-ova opšte namjene nije dizajnirana za vrstu uzročno-posljedičnog zaključivanja koje im daje čvrst uvid u svijet. Po njegovom mišljenju, prioritet obavještajnih agencija trebao bi biti poticanje novih vrsta modela zaključivanja.
Drugi upozoravaju da bi Kina mogla ubrzano napredovati. „Još uvijek postoji ogromna praznina u našem razumijevanju o tome kako i koliko je Kina napredovala u korištenju DeepSeeka“ za vojne i obavještajne praznine, kaže Philip Reiner iz Instituta za sigurnost i tehnologiju, think-tanka u Silicijskoj dolini. „Vjerovatno nemaju slične zaštitne ograde kao što mi imamo na samim modelima i stoga će vjerovatno moći brže dobiti snažnije uvide“, kaže on.
Dana 23. jula, Trampova administracija je naredila Pentagonu i obavještajnim agencijama da redovno procjenjuju koliko brzo američke agencije za nacionalnu sigurnost usvajaju vještačku inteligenciju u odnosu na konkurente poput Kine i da “uspostave pristup za kontinuiranu adaptaciju”.
Gotovo svi se slažu s tim. Senator Warner tvrdi da američki špijuni rade “loš posao” prateći napredak Kine. “Akvizicija tehnologije (i) prodiranje kineskih tehnoloških kompanija je i dalje prilično nisko.” Najveći rizik, kaže gđa Mulligan, nije to što Amerika žuri s tehnologijom prije nego što shvati rizike. “To je to što Ministarstvo odbrane i IC nastavljaju raditi stvari onako kako su ih oduvijek radili. Ono što me drži budnom noću je stvarna mogućnost da bismo mogli pobijediti u trci za AGI (opštu vještačku inteligenciju)… i izgubiti trku u usvajanju.”