Ako niste sigurni da li smijete da podijelite neku informaciju ili ne, vodite se ovom jednostavnom logikom – ako ne želite da vam neko ponovi, vidi ili objavi vaš upit negdje na internetu, oglasnoj tabli ili u medijima, vjerovatno ga ne biste smijeli ni postaviti ni ChatGPT-ju ili nekom drugom AI modelu.
Veliki jezički modeli, odnosno alati sa vještačkom inteligencijom, gotovo su postali neizostavni dio svakodnevnog života.
Čak i ako ih ne koristite direktno svakog dana, velika je vjerovatnoća da koristite neki servis koji u pozadini koristi AI model kao što su ChatGPT, Gemini, Perplexity i slični, piše Dnevnik.hr.
Međutim, iako se mnogi oslanjaju na ove servise kako bi im pomogli u svakodnevnim (poslovnim i privatnim) obavezama, isto tako nisu svjesni da svako korišćenje ovih alata nosi i određene bezbjednosne rizike.
Naime, u žurbi da što prije obave neki zadatak, ljudi često AI modelima otkrivaju osjetljive i privatne informacije koje ne bi trebalo dijeliti ni sa kim. Ali, četbotovi nisu osobe, zar ne?
Zapravo, u ovom kontekstu treba ih posmatrati kao osobe, jer baš kao što ne biste bilo kome na ulici rekli osjetljive informacije o sebi ili firmi u kojoj radite, tako ih ne bi trebalo ni upisivati u AI četbotove.
Iako kompanije koje razvijaju ove modele najčešće ne koriste korisničke podatke iz razgovora za dodatno treniranje modela (mada, na primjer, DeepSeek upravo to radi), to ne znači da ti podaci ne ostaju zabilježeni na vašem korisničkom nalogu.
Dovoljno je da neko sjedne za vaš računar, otvori vaš omiljeni AI model i pročita istoriju razgovora – i time pristupi osjetljivim podacima.
Koje osjetljive podatke ne smijete dijeliti?
1. Lične podatke
Bez obzira na to koliko vjerujete AI modelu, nikada ne bi trebalo da u razgovoru sa bilo kojim AI četbotom dijelite svoje puno ime i prezime, adresu, JMBG, broj lične karte, pasoša i slične identifikacione dokumente. Isto važi i za fotografije takvih dokumenata.
Ako koristite četbot za izradu biografije, bolje ga zamolite da vam napravi obrazac koji ćete sami popuniti na računaru, umjesto da ubacujete svoje lične podatke.
2. Finansijske informacije
Kao što se savjetuje da ne dijelite brojeve kreditnih/debitnih kartica, podatke o bankovnom računu ili lozinke za elektronsko bankarstvo – isto važi i za AI modele.
Možda želite savjet o najboljem kreditu ili kako uštedjeti na porezu, ali koristite izmišljeni primjer umjesto stvarnih podataka.
3. Lozinke
Ne treba dodatno objašnjavati – dijeljenje lozinki je izuzetno neodgovorno. Kao što ne biste strancu dali ključeve od stana, tako ih ne treba dijeliti ni AI modelu.
4. Osjetljive ili povjerljive informacije
Nemojte tretirati AI model kao povjerljivog prijatelja i otkrivati mu intimne ili tajne podatke.
Privatni detalji kao što su preljube, ponašanje kolega ili zdravstveni problemi članova porodice nisu za dijeljenje sa četbotom.
5. Informacije o firmi u kojoj radite ili sarađujete
Možda vam je primamljivo da u ChatGPT ubacite podatke i tražite da sastavi ugovor, ali to nije bezbjedno. Isto važi i za povjerljive dokumente (o prototipovima, patentima, poslovnim planovima, finansijama itd.).
Zato neke firme i zabranjuju korišćenje AI alata na službenim računarima.
6. Eksplicitan sadržaj
Čak i ako je u šali, pitanje poput “kako se riješiti nekoga zauvijek” može izazvati ozbiljne probleme.
ChatGPT neće odgovoriti, a neki modeli takva pitanja mogu prijaviti nadležnim organima. Bolje se suzdržite.
7. Medicinske informacije
Umjesto “doktora Googlea”, mnogi su počeli da koriste ChatGPT kao ličnog ljekara.
Nije loše tražiti objašnjenje nalaza, ali izbjegavajte unošenje identifikacionih podataka. Bolje je postaviti opšti upit, na primjer: “Preporuči mi vježbe za muškarca u tridesetim godinama koji ima išijas”, prenosi Nova.
*Zlatno pravilo: Ako niste sigurni da li smijete da podijelite neku informaciju – zapitajte se da li biste željeli da je neko pročita na internetu ili u medijima. Ako ne biste, onda je ne postavljajte ni AI modelu.