EdukacijaTehnologijaZdravlje

Memorizacija pacijenta u dobi kliničke umjetne inteligencije: Istraga…

Hipokratski zakletva, koja se smatra jednom od najranijih i najpoznatijih tekstova medicinskih etičkih pravila na svijetu, glasi: „Što god vidim ili čujem u životima svojih pacijenata, bilo da je to u vezi s mojom profesionalnom praksom ili ne, što ne bi smjelo biti izgovoreno izvan, čuvat ću u tajnosti, smatrajući da su sva takva stvari privatna.

Što je pacijentska privatnost? Hipokratski zakletva, koja se smatra jednom od najranijih i najpoznatijih tekstova medicinskih etičkih pravila na svijetu, glasi: „Što god vidim ili čujem u životima svojih pacijenata, bilo da je to u vezi s mojom profesionalnom praksom ili ne, što ne bi smjelo biti izgovoreno izvan, čuvat ću u tajnosti, smatrajući da su sva takva stvari privatna.”

Kao što se privatnost sve više retko pojavljuje u dobi algoritama koji su gladni za podacima i kibernapadima, medicina je jedna od rijetkih preostalih domena gdje je povjerljivost centralna za praksu, omogućujući pacijentima da vjeruju svojim liječnicima s osjetljivim informacijama.

Ali članak koautorski napisali MIT istraživači istraži kako umjetne inteligencije modeli trenirani na deidentificiranim elektroničkim zdravstvenim zapisima (EHR) mogu memorizirati specifične informacije o pacijentima. Rad, koji je nedavno predstavljen na 2025. godišnjem konferenciji o obradi informacija u neuronskim sistemima (NeurIPS), preporučuje strogi postavljeni test da se osigura da ciljani podsticaji ne mogu otkriti informacije, naglašavajući da se iscjeljivanje mora ocijeniti u kontekstu zdravstva da bi se utvrdilo je li to znatno ugrozilo pacijentsku privatnost.

Osnovni modeli trenirani na EHR-ima trebali bi normalno generalizirati znanje kako bi napravili bolje predviđanja, crpeći iz mnogih pacijentskih zapisa. Ali u „memorizaciji”, model crpi iz jednog pacijentskog zapisa za isporuku svog izlaza, što potencijalno krši pacijentsku privatnost. Zapaženo je da su osnovni modeli već poznati po tome da su nagnuti na iscjeljivanje podataka.

„Znanje u ovim visokokapacitetnim modelima može biti resurs za mnoge zajednice, ali napadači mogu podsticati model da izvuče informacije o podacima za učenje,” kaže Sana Tonekaboni, postdoktorant na Eric and Wendy Schmidt Centeru na Broad Institutu MIT-a i Harvardu i prvi autor članka. Uvjereni da osnovni modeli također mogu memorizirati privatne podatke, napominje, „ovaj rad je korak prema tome da se osiguraju praktični koraci koje naša zajednica može poduzeti prije objavljivanja modela.”

Da bi istražili potencijalni rizik koji EHR osnovni modeli mogu predstavljati u medicini, Tonekaboni se obratio MIT-u Associate Professoru Marzyeh Ghassemi, koji je glavni istraživač na Abdul Latif Jameel Clinic for Machine Learning in Health (Jameel Clinic) i član Laboratorija za računarstvo i umjetnu inteligenciju. Ghassemi, članica odsjeka za elektrotehniku i računarstvo i Instituta za medicinsko inženjerstvo i znanost na MIT-u, vodi Healthy ML grupu, koja se bavi čvrstom mašinskom učenjem u zdravstvu.

Kako memorizacija ugrožava pacijentsku privatnost

Kako mnogo informacija lošeg glumca treba da otkrije osjetljive podatke, a kakvi su rizici povezani s iscjeljenim informacijama? Da bi to ocijenili, istraživački tim razvio je seriju testova koje nadamo se da će poslužiti kao temelj za buduća ocjenjivanja privatnosti. Ovi testovi su dizajnirani da mjere različite vrste neodređenosti i ocijene njihovu praktičnu riziku za pacijente mjerenjem različitih nivoa mogućnosti napada.

„Stvarno smo se ovdje usredotočili na praktičnost; ako napadač mora znati datum i vrijednost dvanaest laboratorijskih testova iz vašeg zapisa da bi izvuo informacije, postoji vrlo malo rizika od štete. Ako već imam pristup tom nivou zaštićenih izvora podataka, zašto bih trebao napadati veliki osnovni model za više?” kaže Ghassemi.

S neizbježnom digitalizacijom medicinskih zapisa, podatkovni kršenja su postali sve češća. U zadnjih 24 mjeseca, U.S. Department of Health and Human Services je zabilježio 747 podatkovnih kršenja zdravstvenih informacija koja su utjecala na više od 500 pojedinaca, s većinom kategoriziranih kao hacking/IT incidenti.

Pacijenti s jedinstvenim stanjima posebno su ranjivi, jer je tako lako prepoznati ih. „Iako su deidentificirani podaci, ovisi o vrsti informacija koje iscjelite o pojedincu,” kaže Tonekaboni. „Jednom ih identificirate, znate puno više.”

U svojim strukturiranim testovima, istraživači su pronašli da je veća količina informacija koju napadač ima o određenom pacijentu, veća je vjerojatnost da model iscjeli informacije. Pokazali su kako razlikovati slučajeve generalizacije modela od memorizacije na razini pacijenta, kako bi se ispravno ocijenio rizik privatnosti.

Rizici memorizacije u kliničkoj umjetnoj inteligenciji

Članak također je naglasio da su neki iscjeljivanja više štetna od drugih. Na primjer, model koji otkriva dob pacijenta ili njegove demografske podatke mogao bi se karakterizirati kao više štetna od onog koji otkriva samo simptome.

Istraživači su također istaknuli da memorizacija ne mora nužno biti rezultat neuspjeha modela. U nekim slučajevima, modeli mogu memorizirati informacije o pacijentima koji su imali jedinstvene ili rijetke simptome, što može biti korisno za dijagnosticiranje i liječenje, ali također može predstavljati rizik za privatnost.

Kako se spriječiti memorizacija u kliničkoj umjetnoj inteligenciji

Da bi se spriječilo memoriziranje, istraživači su preporučili nekoliko koraka. Prvo, modeli trebali bi biti trenirani na velikim i raznovrsnim skupovima podataka kako bi se smanjila vjerojatnost memorizacije. Drugo, modeli trebali bi biti testirani na različitim skupovima podataka kako bi se osiguralo da ne memoriziraju informacije o pojedinačnim pacijentima.

Treće, modeli trebali bi biti ocijenjeni na temelju njihovih performansi na različitim skupovima podataka kako bi se osiguralo da ne memoriziraju informacije o pojedinačnim pacijentima. Na kraju, modeli trebali bi biti redovito ažurirani kako bi se osiguralo da ne memoriziraju starije informacije o pacijentima.

Zaključak

Memorizacija u kliničkoj umjetnoj inteligenciji predstavlja stvaran rizik za pacijentsku privatnost. Iako su modeli trenirani na deidentificiranim podacima, mogu memorizirati specifične informacije o pacijentima, što može ugroziti njihovu privatnost. Istraživači su razvili seriju testova kako bi se ocijenio rizik memorizacije i preporučili korake za spriječavanje iste. Važno je da se modeli redovito ažuriraju i testiraju kako bi se osiguralo da ne memoriziraju starije informacije o pacijentima.

Česta pitanja

Koji su najčešći simptomi memorizacije u kliničkoj umjetnoj inteligenciji?

Najčešći simptomi memorizacije u kliničkoj umjetnoj inteligenciji uključuju model koji otkriva specifične informacije o pacijentima, kao što su njihova dob, demografski podaci ili jedinstveni simptomi. Također, model može memorizirati informacije o pacijentima koji su imali rijetke ili jedinstvene simptome.

Kako se modeli treniraju da spriječe memorizaciju?

Modeli se mogu trenirati na velikim i raznovrsnim skupovima podataka kako bi se smanjila vjerojatnost memorizacije. Također, modeli trebali bi biti testirani na različitim skupovima podataka kako bi se osiguralo da ne memoriziraju informacije o pojedinačnim pacijentima. Na kraju, modeli trebali bi biti ocijenjeni na temelju njihovih performansi na različitim skupovima podataka kako bi se osiguralo da ne memoriziraju informacije o pojedinačnim pacijentima.

Koji su koraci za spriječavanje memorizacije u kliničkoj umjetnoj inteligenciji?

Koraci za spriječavanje memorizacije u kliničkoj umjetnoj inteligenciji uključuju treniranje modela na velikim i raznovrsnim skupovima podataka, testiranje modela na različitim skupovima podataka, ocjenjivanje modela na temelju njihovih performansi na različitim skupovima podataka i redovno ažurivanje modela.

Povezano

1 of 254

Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)