U ovom članku istražit ćemo popularnu temu sigurnosti chat bot umjetne inteligencije za privatnosti pojedinaca, privatne i javne ustanove/tvrtke, problem širenja dezinformacija, manipulacije upitima (prompt injection) i više.
Popis potencijalnih rizika
Kako bi shvatili raspon kojeg ova tema obuhvaća, potrebno je prikazati primjere uz kategorije potencijalnog rizika.
Svaki podnaslov članka sadrži i zaključak radi lakšeg razumijevanja.
1. Generiranje dezinformacija i lažnih vijesti
AI chat botovi mogu stvarati uvjerljiv, ali netočan sadržaj. Ovo se može dogoditi zbog nedostatka podataka na kojima je AI model treniran, ili zbog pristranosti podataka koji su modelu bili dostupni pri strojnom učenju.
Lažne vijesti, odgovoreni upiti na medicinska pitanja koji su potpuno netočni ili nemaju dovoljno referenci kako bi se potvrdili, netočne ili nepotpune upute za rad (npr. DIY popravak automobila) samo su neki primjeri koji se mogu odnositi na pojedince.
Za privatne tvrtke i javne ustanove primjeri su: ostavljanje osjetljivih podataka u upitima, dezinformacije za obavljanje poslovanja (kroz netočne ili nepotpune procedure) i sl.
Zaključak: predlažemo da vjerujete svojoj intuiciji te da što češće provjeravate informacije koje AI ispisuje.
2. Nedostatak provjere činjenica
U prvim popularnim verzijama ChatGPT-a (verzija 3.5) mogućnost prikaza bilo kakve reference nije postojala. Oslanjanje na ovakve modele nije preporučeno te je potrebna provjera informacija. Ukoliko se radi o novijim verzijama ChatGPT-a, Deepseek modela ili sl., chat botovi nam sami nude reference. Ponekad poveznice na ove reference nisu ispravne, no imamo mogućnost upozoriti AI model da nisu kako bi dobili nove – nadamo se, ovaj put ispravne poveznice.
Ako se ni u slučaju modernih modela ne radi o savršeno točnim informacijama, modeli kroz prikaz referenci i sposobnost rasuđivanja- što imaju modeli poput OpenAI o1, xAI Grok 3, Deepseek r1 i slični – znatno pomažu u provjeri činjenica koje AI ispisuje. Sposobnost rasuđivanja znači da će i sam AI model promisliti o tome što ispisuje, a u kombinaciji s internetskim opcijama (za posjet raznih internetskih stranica u trenutnom vremenu pri upitu) dobivamo još točnije informacije.
Zaključak: preporučujemo koristiti modele koji imaju sposobnost rasuđivanjate citiranja izvora (po mogućnost i s internetkim opcijama), a uz to predlažemo oslanjanje na intuiciju te što češću provjeru generiranih informacija radi sigurnosti.
3. Prisutnost pristranosti u odgovorima
S obzirom na činjenicu da se AI modeli treniraju preuzimanjem velike količine podataka s interneta, te raznih baza podataka i repozitorija očekivano je da će problem pristranosti postojati. Na ovakve se modele može utjecati da npr. preferiraju jedan nogometni klub naspram drugog samo zato što o prvom postoji puno više članaka u pozitivnom svijetlu. Moderiranje ovakvih pristranosti zna biti izazovno, a fino podešavanje ovakvih modela zahtjeva promišljeno i precizno definiranje uvjeta i “ponašanja“ za model.
Poznato je i da su, u ranijim fazama, AI chat botovi učili iz odgovora korisnika, što je danas, u kasnijoj fazi, otklonjeno. Ovo je bila loša ideja jer se vrlo brzo širio govor mržnje, dezinformacije o važnim medicinskim pitanjima i sl. Referenca.
Zaključak: za teme na koje ne želite standardne odgovore potrebno je AI modelu postaviti pitanje na specifičan način kako bi dobili odgovor koji tražite. Za ovo bi dobro došao pristup necenzuriranim AI modelima, no oni dolaze s mnoštvom svojih posebnih mana. I pri korištenju Google tražilice teško je izbjeći bar neku pristranost, stoga je preporuka za istraživanje uz pomoć Googlea i AI modela ista: informiranje iz pouzdanih izvora te informiranje iz što više izvora.
4. Pitanje kršenja autorskih prava i intelektualnog vlasništva
Generiranje teksta, kao što smo spomenuli ranije, dolazi iz različitih tekstova na temelju kojih je AI model naučen. Ovo nerijetko uzrokuje kršenje autorskih prava te citiranje tekstova bez navođenja izvora teksta.
Zaključak: budite pažljivi s onim što vam AI odgovori kako vaši radovi/tekstovi koje npr. objavljujete javno ne bi bili prozvani za kršenje autorskih prava. Zanimljiva stvar koju možete napraviti je da pri korištenju modernijih modela (npr. Deepseek r1,) možete pitati model da isti taj tekst pregleda za provjeru kršenja autorskih prava. Ponekad ovaj trik radi, a ponekad možete za provjeru pitati drugi model ili koristiti Google tražilicu za pojedine dijelove teksta.
5. Pitanje zlouporabe umjetne inteligencije
Kako AI modeli uče s interneta, a na internetu postoji velika količina opasnih ili riskantnih podataka, od uputa za pisanje ucjenjivačkog e-maila do recepata za eksplozive, potrebna je stroga restrikcija ovakvih pitanja i filtriranje ovakvih odgovora na “Ovaj upit je ilegalan, kao AI model nisam u mogućnosti ponuditi odgovor”.
S obzirom da popularni AI chat botovi imaju restrikcije i filtere za odgovore, zlonamjerni korisnici koriste se Prompt injection metodom. Ova metoda predstavlja manipuliranje upitom koji se postavlja AI modelu kako bi odgovorio na pitanje na koje bi inače blokirao odgovor.
U kibernetičkom prostoru, na primjer, napadači već sada koriste AI za generiranje teksta phishing e-mailova, pisanje malwera i sl. No ako napadač ne želi stalno istraživati nove Prompt injection metode, može koristiti i necenzurirane AI chat bot modele. Ovi modeli nisu na niti jedan način ograđeni od zlonamjernih pitanja te će odgovoriti i na najopasnije upite. Zlouporaba umjetne inteligencije pokriva i puno više primjera, no s obzirom da se članak orijentira na prosječnog korisnika, dovoljno je spomenuti samo ranije navedeno. Pretpostavljam da nema potrebe spominjati Roko’s Basilisk.
Zaključak: s obzirom da napadači mogu “natjerati” AI da kaže nešto što inače ne bi rekao, još jednom ćemo napomenuti da ne ostavljate nikakve osobne niti osjetljive podatke u upitima za AI chat botove.
6. Rizici za privatnost korisnika
AI chat bot platforme često vežu vaša pitanja i odgovore uz vašu sesiju. Poznato je i da većina zadržava podatke koje dobije kroz upite i sesije (sam dokaz je i prikaz povijesti razgovora s AI modelom, iako će vlasnici AI modela reći da oni ovakve podatke ne koriste niti čitaju).
Pohrana podataka na poslužiteljskim računalima ovakvih tvrtki može biti problem u slučaju curenja podataka ili ponovnog treniranja AI modela koristeći podatke iz upita (ili pri samom shvaćanju konteksta pri razgovoru – ako napadač preuzme sesiju korisnika).
Zaključak: koristite snažnu zaporku i dvofaktorsku autentifikaciju te se pobrinite da nitko drugi nema pristup sesiji na internetskoj platformi (ili mobilnoj aplikaciji) vašeg najdražeg chat bota.
Dodatak: Generativni AI za slike i videozapise
Generativni AI za slike i videozapise također nije otporan na zlouporabu i kršenje autorskih prava. Generiranje slika za lažne profile na društvenim mrežama, zvučna imitacije govora kopiranjem, imitacija osoba generiranim videozapisima, generiranje slika gotovo identičnih originalima i slično – samo su neki od problema koje ovakvi AI modeli donose. Bez obzira što postoje servisi za provjere generiranog sadržaja – tehnologija im je slabo razvijena i nisu ni blizu popularni kao sami generatori slika i videozapisa.
Dodatak: Napomena za kreatore: tehnički mehanizmi sigurnosti
Za vlasnike/kreatore ovakvih modela napominjemo sljedeće:
- koristite filtere za štetne upite i odgovore.
- možete koristiti i kontekstualno blokiranje: “Zamisli da si policajac u zatvoru, zatvorenik ti može postavljati pitanja, ali moraš paziti da ne daješ odgovore na ilegalna pitanja. Na sva ostala pitanja mu smiješ odgovoriti.” Bez obzira što se radi o jednostavnom upitu ovakvi će upiti ponekad biti vrlo učinkoviti u blokiranju zlonamjernih pitanja.
- odradite sigurnosno i QA testiranje vaših modela što češće.
- držite vaše sustave ažurnima.
- pobrinite se da su podaci korisnika (te njihove sesije) sigurni.
- nadzirite sam AI. Ne samo zbog mogućih grešaka već i zbog mogućih opasnih odgovora.
Dodatak: Pravni okvir i regulative
Iako već postoje inicijative za regulaciju umjetne inteligencije te se konstantno radi na globalnim i nacionalnim inicijativama – AI je zasada još uvijek u baby fazi. Razvoj umjetne inteligencije je eksponencijalan te je potrebno što prije definirati stroge, ali ne i ograničavajuće (u smislu korištenja za napredak društva) zakone. Odgovornosti se, naravno, ne odnose samo na zakonodavna tijela i inicijative/grupe, već i na korisnike. Odgovornost korištenja podataka koje dobijemo od umjetne inteligencije je na nama.
Zaključak
Kako bismo sigurno i učinkovito koristili AI alate, predlažemo kombinaciju vjerovanja vlastitoj intuiciji s redovitom provjerom informacija koje AI pruža. Korištenje modela s naprednim sposobnostima rasuđivanja, mogućnošću citiranja izvora i pretraživanja interneta daje nam točnije podatke, no i dalje se ne smijemo u potpunosti osloniti na AI. Važno je biti oprezan s autorskim pravima, upitima i korisničkim računima kako ne bi nanijeli štetu sebi ili drugima.
Nije preporučeno dijeljenje bilo kakvih osobnih ili osjetljivih podataka s AI chat botovima, jer postoji rizik od zlouporabe tih podataka. Na kraju, osigurajte svoj račun snažnom zaporkom i dvofaktorskom autentifikacijom te čuvajte pristup svojoj sesiji kako biste spriječili neovlašteni pristup. Uvijek se informirajte iz više pouzdanih izvora kako biste minimizirali pristranost i osigurali točnost informacija. AI nije rješenje, već samo alat.