Vijesti i novostiAI alatiSavjeti i tutoriali

Samo jedan zaraženi dokument može otkriti povjerljive podatke putem ChatGPT-a [2025]

Suvremeni AI alati kao što je ChatGPT danas su ključni za rad, ali dolazak novih funkcija koje omogućuju povezivanje s vanjskim servisima otvara i nova sigurnosna pitanja. Nedavno otkrivena ranjivost pokazuje da je dovoljan samo jedan “zaražen” dokument kako bi povjerljivi podaci iz servisa poput Google Drivea završili u pogrešnim rukama, i to bez ikakve radnje korisnika. Ova prijetnja dokazuje koliko su važne mjere zaštite privatnosti i sigurnosti kod korištenja naprednih AI sustava.

U tekstu slijedi pregled stvarnog napada demonstriranog na sigurnosnoj konferenciji, prikaz kako funkcionira prijenos podataka kroz skriveni prompt i koje posljedice ovakvi propusti mogu imati za tvrtke i pojedince. Naglasak je na važnosti povjerenja u tehnologiju, ali i potrebi za stalnim oprezom, posebno dok AI alati sve češće obrađuju osjetljive informacije. Više o sigurnosnim rješenjima i alatima s naglaskom na privatnost možeš pronaći u članku o Lumo sigurni AI chatbot.

Kako funkcionira napad putem zaraženog dokumenta

Napadi putem zaraženih dokumenata nisu nova pojava, ali su u eri umjetne inteligencije poprimili sofisticiranije oblike. Dovoljno je da korisnik otvori ili prenese jedan jedini zaraženi dokument, i povjerljive informacije mogu biti kompromitirane. Ovi napadi koriste kombinaciju tehničkih ranjivosti i socijalnog inženjeringa. Posebno su opasni oblici napada u kojima korisnik nije svjestan što zapravo pokreće i koje posljedice može imati jednostavan prijenos dokumenta u servis poput Google Drivea ili obrada kroz AI alat.

Prompt injection: skriveni nalozi u dokumentima

Jedan od najsuvremenijih načina napada koristi tzv. prompt injection, odnosno “ubrizgavanje” skrivenih naredbi u tekst dokumenta. Takve naredbe su posebno oblikovani dijelovi teksta, često nevidljivi korisniku (skriveni font, bijela boja slova, umetnuti u bilješke ili komentare), koji su namijenjeni za čitanje i izvršavanje od strane AI modela poput ChatGPT-a.

Korisnik može kopirati ili prenijeti sadržaj dokumenta u AI chatbot, ne znajući da je time pokrenuo niz skrivenih uputa. Umjesto da AI model reagira samo na stvarna korisnička pitanja, on automatski postupa po skrivenim naredbama, što može rezultirati otkrivanjem osjetljivih podataka, slanjem povjerljivih informacija na vanjske adrese ili zloupotrebom korisničkog računa.

Primjeri skrivenih promptova u Word ili PDF dokumentima mogu uključivati:

  • Tekst u bijeloj boji na bijeloj pozadini
  • Komentare ili metapodatke unutar dokumenta
  • Skrivena polja s instrukcijama za AI

Ova tehnika funkcionira sličnim principom kao što su i raniji makro virusi iskorištavali Word ili Excel dokumente, gdje je korisnik nesvjesno pokrenuo kod koji preuzima kontrolu ili šalje informacije napadaču.

Nulti-klik ranjivost: kompromitacija bez interakcije

Jedan od najopasnijih aspekata novih napada je tzv. nulti-klik ranjivost (zero-click vulnerability). Kod ovakvih napada, žrtva ne mora čak niti otvoriti dokument. Dovoljno je da dokument dođe do AI servisa, primjerice putem automatske sinkronizacije u cloud (npr. Google Drive), ili kada AI alat automatski pristupi datoteci radi analize.

To znači da je dovoljno da AI alat ima pristup direktoriju u kojem se nalazi zaraženi dokument. AI može automatski pročitati i izvršiti maliciozne instrukcije sadržane u prompt injectionu, bez da korisnik uopće dođe u kontakt s dokumentom ili shvati da je kompromitacija nastupila.

Ovakvi napadi posebno su opasni u okruženjima gdje AI alati rutinski pretražuju i analiziraju velik broj dokumenata, kao što su korporativni cloud servisi. Napadač tada može, bez ikakve dodatne interakcije, uzeti povjerljive ili osobne informacije, pa čak i pokrenuti dodatne faze napada.

Stručnjaci savjetuju nekoliko mjera zaštite:

  • Redovito ažuriranje AI i cloud alata
  • Korištenje sandbox okruženja za analizu sumnjivih dokumenata
  • Ograničavanje pristupa AI alatima na povjerljive direktorije
  • Deaktivacija makro funkcionalnosti i skrivenih promptova gdje je moguće

Kombinacija tehničkih ranjivosti i naprednih AI modela čini nulti-klik napade ozbiljnom prijetnjom za svaku organizaciju i pojedinca koji koristi suvremene AI servise u svakodnevnom radu.

Što je otkriveno: AgentFlayer napad i sigurnosni problemi ChatGPT-a

Razvoj AI modela kao što je ChatGPT omogućio je izravnu integraciju s vanjskim servisima, čime korisnici mogu automatski dohvaćati i analizirati podatke iz izvora kao što su Google Drive, Gmail ili GitHub. Iako takva fleksibilnost donosi brojne prednosti, istraživanja su otkrila ozbiljne sigurnosne propuste zbog kojih je dovoljno samo jedan zlonamjerno pripremljen dokument kako bi povjerljive informacije bile ugrožene – bez da korisnik to uopće primijeti.

Kako AI može izvući API ključeve i osjetljive podatke

AgentFlayer napad ilustrira kako sofisticirani AI modeli, kada su povezani s datotečnim servisima, mogu biti zloupotrijebljeni za izvlačenje osjetljivih podataka. Proces se odvija u nekoliko koraka:

  • Napadač dijeli “zaraženi” dokument s ciljanim korisnikom ili ga korisnik samostalno prenosi.
  • U dokumentu je skrivena prompt-instrukcija (obično nevidljiva korisniku, npr. bijelim tekstom minimalne veličine), namijenjena da AI model pročita i izvrši.
  • Kada korisnik zatraži od ChatGPT-a da sažme ili pročita dokument, AI model automatski izvršava skrivene upute.
  • Prompt naređuje AI-ju da pretraži direktorij (npr. Google Drive) i pronađe API ključeve ili druge osjetljive podatke.
  • AI zatim automatski generira URL u Markdown formatu s pronađenim podacima te “učitava sliku” s tog URL-a. U stvarnosti, taj URL šalje podatke na server pod kontrolom napadača.

Ova tehnika ne zahtjeva nikakvu dodatnu interakciju sa strane žrtve. AI model, vođen skrivenom naredbom, kreće u automatsko pretraživanje i prijenos informacija napadaču, često bez da korisnik ikada otvori sam dokument ili klikne na opasni link.

Ključne tehnike korištene u ovom tipu napada uključuju:

  • Umetanje promptova nevidljivih običnom korisniku.
  • Korištenje Markdown URL-a za slanje podataka izvan sigurnog okruženja.
  • Automatizaciju postupka putem naprednih AI modela spojenih s cloud servisima.

Povijesno gledano, ovakvo korištenje Markdown-a za izvlačenje podataka iz ChatGPT-a nije potpuno novo, ali povezivanje AI-a s vanjskim servisima otvara daleko šire mogućnosti zloupotrebe.

Povećani rizik spajanjem AI-a s vanjskim servisima

Svaka nova integracija AI modela s vanjskim cloud ili aplikacijskim servisima povećava ukupnu površinu napada. Kada ChatGPT dobije pristup Google Driveu, Gmailu ili sličnim platformama, napadač dobiva više “ulaznih točaka” za potencijalnu kompromitaciju.

Povezivanje može dovesti do:

  • Veće izloženosti povjerljivih informacija, jer AI ima pristup širem spektru datoteka i e-mailova.
  • Automatiziranih napada, u kojima žrtva ne mora prepoznati prijetnju niti potvrditi radnju.
  • Multipliciranja rizika – jedna ranjiva integracija može otvoriti vrata za cijeli set novih napadačkih vektora.

Praktični primjer iz recentnog sigurnosnog istraživanja pokazuje da kompromitirani dokument može pokrenuti napad čim ga AI servis pročita, bez ikakve eksplicitne interakcije korisnika. S obzirom na to da velike tvrtke rutinski koriste ovakve AI alate za masovnu analizu dokumenata i e-mailova, ovakvi napadi mogu imati ozbiljne posljedice za sigurnost podataka na razini organizacije.

Zbog toga se preporučuje korištenje AI rješenja s posebnim naglaskom na sigurnost i privatnost, o čemu možeš više saznati u vodičima na stranici Umjetnai.com, gdje su dostupne preporuke za chat botove koji prioritiziraju zaštitu korisničkih podataka.

Integracija AI-a s vanjskim servisima donosi značajne prednosti, ali i rizike koje svaki korisnik i tvrtka moraju prepoznati. Potrebno je pažljivo analizirati koje podatke i funkcije dijelite s AI modelima te redovito pratiti sigurnosne preporuke i implementirati mjere zaštite koje preporučuju vodeći stručnjaci.

Zašto je ova ranjivost važna za korisnike i tvrtke

Ranjivost otkrivena u povezivanju ChatGPT-a s vanjskim servisima poput Google Drivea nije samo tehnički propust. Ona otkriva ozbiljan sigurnosni problem koji može imati dalekosežne posljedice za privatnost pojedinaca i integritet podataka u tvrtkama. U svijetu u kojem su podaci najvrijednija imovina, ovakvi napadi pokazuju koliko je lako izazvati štetu čak i bez izravne interakcije korisnika. Zato je važno razumjeti zašto ta ranjivost nije samo još jedna tehnička rupa, već stvarna prijetnja koja zahtijeva pažnju i zaštitu.

Utjecaj na privatnost pojedinaca i sigurnost kompanija

Ova ranjivost može dovesti do curenja povjerljivih informacija poput API ključeva, internih dokumenata ili osobnih podataka – a sve to bez da korisnik išta učini ili bude svjestan napada. Posljedice su velike: krađa identiteta, financijske prijevare, gubitak povjerenja klijenata i šteta za reputaciju tvrtki. Za korisnike, posebno one koji pohranjuju osjetljive informacije na cloud servisima, rizik je da njihove privatne informacije budu izložene bez ikakvog upozorenja.

Zakonski okvir u Europi dodatno naglašava važnost ovakve zaštite. EU je kroz NIS2 direktivu postavila nove standarde za sigurnost mrežnih i informacijskih sustava koji se odnose i na tvrtke i na javni sektor. Ova direktiva obvezuje organizacije da implementiraju mjere koje sprječavaju ovakve prijetnje i prijave incidente u vremenskom roku. Kako bi bolje razumjeli kompleksnost i važnost NIS2 regulative, korisno je proučiti članak na Što je NIS2 direktiva i zašto je važna.

Ukratko, ovaj propust nije samo problem softvera, već direktan rizik za sigurnost podataka koji su u središtu privatnosti i poslovne pouzdanosti.

Uloga sigurnosnih regulativa i ulaganja u AI sigurnost

Sigurnost AI sustava postaje dio šireg regulatornog okvira koji se razvija na nacionalnoj i europskoj razini. EU AI Act je jedan od ključnih dokumenata koji postavlja pravila za razvoj i korištenje AI tehnologija s naglaskom na sigurnost, transparentnost i zaštitu korisnika. U okviru ove regulative, tvrtke moraju osigurati da njihovi AI sustavi ne ugrožavaju povjerljive podatke niti narušavaju privatnost. Više o utjecaju i zahtjevima EU AI akta može se pronaći u članku EU AI Act overview.

Pored regulative, važno je i aktivno ulaganje u sigurnosne tehnologije i prakse. Europska unija prepoznaje ovu potrebu kroz financijske potpore i fondove namijenjene razvoju sigurnih AI rješenja i kibernetičke zaštite. Primjer takvih ulaganja detaljno je opisan u tekstu EU funding for AI and cybersecurity. Ovi fondovi omogućuju razvoj pouzdanijih AI sustava, ali i educiraju stručnjake potrebne za prepoznavanje i sprječavanje prijetnji poput onih koje koristi AgentFlayer napad.

U konačnici, tvrtke i korisnici se ne mogu osloniti samo na tehnologiju, već i na regulatorne zahtjeve i one koji ulažu u sigurnosne inovacije. Ovakva sinergija je ključna za prevenciju i pravovremenu reakciju na ranjivosti koje mogu imati ozbiljne posljedice.

Kako se zaštititi: preporuke za korisnike i organizacije

Sigurnost pri korištenju AI alata, posebno onih koji imaju pristup vašim podacima na cloud servisima, postaje neizostavan dio svakodnevnog rada. Ranjivost poput one otkrivene u slučaju ChatGPT Connectors jasno pokazuje koliko je važno primijeniti konkretne mjere zaštite. Zaštita nije samo tehničko pitanje već i pitanje svijesti i prakse unutar organizacija i kod pojedinaca. U nastavku donosimo ključne preporuke koje će vam pomoći da smanjite rizik od kompromitacije podataka.

Praktične mjere prevencije i detekcije

Prevencija napada poput onoga s “zaraženim” dokumentom temelji se na pažljivom upravljanju pristupima i kontroli sadržaja koji AI alati obrađuju. Evo nekoliko konkretnih savjeta za osobnu i poslovnu zaštitu:

  • Provjera dokumenata prije dijeljenja i otvaranja: Uvijek provjerite dokumente na sumnjive elemente, poput nevidljivog teksta, neobičnih komentara ili skrivenih metapodataka. Posebnu pažnju posvetite dokumentima koji dolaze od nepoznatih ili neuobičajenih izvora.
  • Ograničavanje povezivanja servisa s AI alatima: Nemojte automatski davati pristup AI modelima svim svojim cloud servisima. Definirajte jasne politike koji servisi mogu biti povezani i kojim podacima AI smije pristupiti.
  • Korištenje naprednih alata za detekciju prijetnji: Implementirajte softverska rješenja koja mogu identificirati prompt injection i druge oblike zlonamjernih manipulacija unutar dokumenata ili AI interakcija. Alati za analizu ponašanja AI modela mogu pomoći u pravovremenom otkrivanju anomalija.

Ove mjere zajedno mogu značajno smanjiti rizik od neautoriziranog curenja podataka ili zloupotrebe računa. Kontinuirano praćenje i ažuriranje sigurnosnih praksi ključni su za uspješnu zaštitu.

Edukacija i kultura sigurnosti unutar tvrtki

Tehnologija sama ne može zaustaviti sve prijetnje ako ljudi nisu svjesni rizika i ne razumiju kako se pravilno ponašati. Izgradnja jake kulture sigurnosti u organizacijama podrazumijeva:

  • Redovite edukacije zaposlenika: Osigurajte da svi korisnici, posebno oni koji koriste AI alate i pristupaju povjerljivim podacima, budu upoznati s načinima kako prepoznati sumnjive dokumente i postupati u slučaju sumnje.
  • Promicanje odgovornog korištenja AI alata: Uvedite jasne smjernice o tome koje vrste podataka se smiju dijeliti s AI modelima, te koliko je važno prijaviti svaku neuobičajenu aktivnost ili sumnjivi sadržaj.
  • Podrška otvorenom dijalogu o sigurnosti: Potaknite zaposlenike da aktivno sudjeluju u sigurnosnim inicijativama i da ne oklijevaju tražiti pomoć ili dodatne informacije o novim prijetnjama.

Ova kontinuirana edukacija i jačanje svijesti smanjuju šanse da i jedna sitna pogreška postane ulazna točka za ozbiljne sigurnosne incidente.

Specifične AI prijetnje i kako ih prepoznati

AI modeli i njihova integracija s vanjskim servisima donose nove vrste prijetnji koje je potrebno jasno razumjeti i pratiti:

  • Prompt injection napadi: Budite oprezni kod dokumenata koji sadrže nevidljive ili sumnjive tekstualne upute koje AI može izvršiti. Ovakve upute često se skrivaju bijelim tekstom ili u metapodacima.
  • Automatizirani pristup podacima: Znajte koje servise AI alati mogu automatski pregledavati. Prevelik opseg pristupa povećava rizik da se zlonamjerne instrukcije neprimijećeno izvrše.
  • Slanje podataka putem Markdown ili sličnih formata: Neobični URL-ovi ili pozivi na vanjske servise unutar AI odgovora mogu biti način za iznošenje podataka izvan sigurnog okruženja.

Prepoznavanje ovih prijetnji zahtijeva tehničko znanje i stalnu pažnju. Prijelaz sa statičkog na dinamičko upravljanje sigurnošću omogućava da se na vrijeme uoče i spriječe štetni napadi.

Više informacija o suvremenim prijetnjama i načinima zaštite možeš pronaći u tekstu o Svi AI modeli su jailbreakani, gdje stručnjaci detaljno objašnjavaju složenost AI prijetnji i metode obrane.

Za sigurnu primjenu AI tehnologija, razumijevanje ovih prijetnji i implementacija preporučenih mjera su nužni koraci. Ne zaboravite da sigurnost nije samo zadatak IT odjela, već cijelog tima i svakog korisnika ponaosob.

Zaključak

Samo jedan “zaražen” dokument dovoljno je da otkrije povjerljive podatke putem ChatGPT-a, a da korisnik pritom ne mora ni reagirati. Ovakve ranjivosti jasno pokazuju koliko je važno biti odgovoran i oprezan pri korištenju AI alata povezanih s osjetljivim podacima.

Zaštita ne smije biti samo tehnički izazov, već dio svakodnevne prakse i svijesti svakog korisnika i organizacije. Redovito informiranje o sigurnosnim prijetnjama i primjena provjerenih mjera ključ je za smanjenje rizika.

Više o sigurnosti i privatnosti u AI svijetu možeš saznati u članku o zaštiti podataka pri dijeljenju fotografija s AI.

Sigurnost podataka u doba umjetne inteligencije zahtijeva stalnu pažnju i odgovorno djelovanje.

Povezano

Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)