Usvajanje novih alata i tehnologija događa se kada korisnici smatraju da su oni pouzdani, dostupni i poboljšavaju postojeće metode i radne procese uz razumnu cijenu. Pet doktoranada iz prve generacije MIT-IBM Watson AI Lab ljetnog programa koristi najmodernije resurse, rješava probleme u umjetnoj inteligenciji i stvara nove značajke i mogućnosti kako bi povećali korisnost i primjenu AI-a. Njihov rad obuhvaća sve, od učenja kada vjerovati modelu koji predviđa točnost drugih modela do učinkovitijeg razmišljanja o bazama znanja. Zajednički napori studenata i njihovih mentora čine poveznicu gdje praktično i tehnički rigorozno istraživanje vodi do pouzdanijih i vrijednijih modela u različitim domenama.
Izgradnja probnih modela, usmjerivača, novih mehanizama pažnje, sintetičkih skupova podataka i cjelokupnih sustava programiranja, rad studenata obuhvaća sigurnost, učinkovitost inferencije, multimodalne podatke i razmišljanje temeljenog na znanju. Njihove tehnike naglašavaju skaliranje i integraciju, s stalnim fokusom na utjecaj.
Učenje povjerenja i kada ga primijeniti
Andrey Bryutkin, student matematike na MIT-u, fokusira se na pouzdanost modela. Istražuje unutarnje strukture unutar problema, poput jednadžbi koje upravljaju sustavom i zakona očuvanja, kako bi razumio kako ih iskoristiti za proizvodnju pouzdanijih i robusnijih rješenja. Opremljen ovim znanjem, zajedno s timom iz laboratorija, Bryutkin je razvio metodu koja omogućava uvid u ponašanje velikih modela učenja (LLM). U suradnji s Veronikom Thost iz IBM Research i Marzyeh Ghassemi, izvanrednom profesoricom i Germeshausen Career Development profesoricom na MIT-u, Bryutkin je istraživao “nesigurnost nesigurnosti” LLM-ova.
Klasično, mali feed-forward neuronski mrežni modeli, nazvani probama, treniraju se uz LLM-ove i koriste se za označavanje nepouzdanih odgovora većeg modela za programere. Međutim, ovi klasifikatori također mogu proizvoditi lažne negativne rezultate i pružaju samo točne procjene, što ne nudi mnogo informacija o tome kada LLM ne uspijeva. Istražujući sigurne i nesigurne upite te zadatke pitanja i odgovora, MIT-IBM tim koristio je parove oznaka i skrivenih stanja poput aktivacijskih vektora i posljednjih tokena iz LLM-a kako bi mjerili gradijentne rezultate, osjetljivost na upite i podatke izvan distribucije kako bi odredili koliko je pouzdana proba i naučili o područjima podataka koja su teška za predviđanje. Njihova metoda također pomaže u prepoznavanju potencijalne buke u označavanju. Ova funkcija je ključna, jer pouzdanost AI sustava ovisi isključivo o kvaliteti i točnosti označenih podataka na kojima se temelje. Točnije i dosljednije probe posebno su važne za domene s kritičnim podacima, poput IBM-ove Granite Guardian obitelji modela.
Osiguravanje pouzdanih odgovora
Još jedan način za osiguranje pouzdanih odgovora na upite iz LLM-a je dopunjavanje s vanjskim, pouzdanim bazama znanja kako bi se eliminirale halucinacije. Za strukturirane podatke, poput veza na društvenim mrežama, financijskih transakcija ili korporativnih baza podataka, grafovi znanja (KG) su prirodni izbor. Međutim, komunikacija između LLM-a i KG-ova često koristi fiksne, višekratne agenske cijevi koje su računalno neučinkovite i skupe. Kako bi to riješili, student fizike Jinyeop Song, zajedno s istraživačima iz laboratorija Yada Zhu iz IBM Research i Julianom Shunom, izvanrednim profesorom na EECS-u, stvorili su okvir za pojačano učenje s jednim agentom koji pojednostavljuje ovaj proces. Ovdje je grupa dizajnirala API poslužitelj koji hosta Freebase i Wikidata KG-ove, koji se sastoje od općih web-baziranih podataka, i LLM agenta koji izdaje ciljanje akcije preuzimanja kako bi dobio relevantne informacije s poslužitelja. Kroz kontinuiranu interakciju, agent dodaje prikupljene podatke iz KG-ova u kontekst i odgovara na upit. Ključno je da sustav koristi pojačano učenje kako bi se obučio za pružanje odgovora koji balansiraju između točnosti i cjelovitosti. Ovaj okvir kombinira API poslužitelj s jednim agentom pojačanog učenja kako bi orkestrirao razmišljanje temeljenog na podacima s poboljšanom točnošću, transparentnošću, učinkovitošću i prenosivošću.
Pametno trošenje računalnih resursa
Pravovremenost i cjelovitost odgovora modela jednako su važni kao i njihova točnost. To je posebno važno za obradu dugih ulaznih tekstova i onih gdje se elementi, poput subjekta priče, razvijaju tijekom vremena. Stoga, student EECS-a Songlin Yang preinakuje ono što modeli mogu obraditi u svakom koraku inferencije. Fokusirajući se na ograničenja transformatora, Yang je zajedno s Rameswarom Pandom iz IBM Research i Yoon Kimom, NBX profesorom i izvanrednim profesorom na EECS-u, razvio arhitekture sljedeće generacije jezičnih modela izvan transformatora.
Transformatori se suočavaju s dva ključna ograničenja: visokom računalnom složenosti u modeliranju dugih sekvenci zbog mehanizma pažnje softmax i ograničenom izražajnošću koja proizlazi iz slabog induktivnog pristranosti RoPE (rotary positional encoding). To znači da se, kada se duljina ulaza udvostruči, računalni trošak učetverostruči. RoPE omogućava transformatorima da razumiju redoslijed sekvenci tokena (tj. riječi); međutim, ne uspijeva dobro uhvatiti unutarnje promjene stanja tijekom vremena, poput vrijednosti varijabli, i ograničen je na duljine sekvenci viđene tijekom obuke.
Kako bi to riješili, MIT-IBM tim istražuje teorijski utemeljene, ali hardverski učinkovite algoritme. Kao alternativu mehanizmu pažnje softmax, usvojili su linearnu pažnju, smanjujući kvadratnu složenost koja ograničava izvedivu duljinu sekvence. Također su istražili hibridne arhitekture koje kombiniraju softmax i linearnu pažnju kako bi postigli bolju ravnotežu između učinkovitosti i točnosti.
Zaključak
Razvoj umjetne inteligencije nastavlja se ubrzavati, a istraživanja poput onih provedenih u MIT-IBM Watson AI Lab-u igraju ključnu ulogu u oblikovanju budućnosti AI-a. S naglaskom na pouzdanost, sigurnost i učinkovitost, ovi napori ne samo da poboljšavaju trenutne modele, već i postavljaju temelje za nove tehnologije koje će oblikovati način na koji komuniciramo s AI sustavima. U 2026. godini, očekuje se da će ovi napredci omogućiti još sofisticiranije i korisnije interakcije s umjetnom inteligencijom, čime će se dodatno povećati njezina primjena u različitim industrijama.
Najčešća pitanja (FAQ)
Što je umjetna inteligencija?
Umjetna inteligencija (AI) je grana računalnih znanosti koja se bavi razvojem sustava sposobnih za obavljanje zadataka koji zahtijevaju ljudsku inteligenciju, poput prepoznavanja govora, donošenja odluka i prepoznavanja obrazaca.
Kako se umjetna inteligencija koristi u svakodnevnom životu?
AI se koristi u raznim aplikacijama, uključujući virtualne asistente, preporučivače proizvoda, autonomna vozila i sustave za analizu podataka.
Koje su prednosti korištenja umjetne inteligencije?
- Povećana učinkovitost i produktivnost.
- Točnije analize i predviđanja.
- Automatizacija rutinskih zadataka.
- Poboljšana korisnička iskustva.
Postoje li rizici povezani s umjetnom inteligencijom?
Da, neki od rizika uključuju pristranost u algoritmima, sigurnosne prijetnje i etička pitanja vezana uz privatnost i kontrolu podataka.
Kako se može poboljšati pouzdanost AI sustava?
Pouzdanje u AI sustave može se poboljšati korištenjem kvalitetnih podataka, transparentnih algoritama i kontinuiranim testiranjem i evaluacijom modela.











![Kako se male firme mogu pripremiti za zahtjeve NIS2 [Vodič za 2025.] 12 a friendly robot always at your disposal 2025 01 09 12 18 47 utc](https://umjetnai.com/wp-content/uploads/2025/02/a-friendly-robot-always-at-your-disposal-2025-01-09-12-18-47-utc-360x180.jpg)
![ChatGPT 5 je stigao: brži, pametniji i dostupan svima [Besplatno] 13 chatgpt5](https://umjetnai.com/wp-content/uploads/2025/08/chatgpt5-360x180.webp)
![Što znači NIS2 direktiva i zašto je važna za IT sigurnost u Hrvatskoj [EU podrška za cybersecurity] 14 businessman with smart artificial intelligence ai 2024 10 11 03 45 41 utc](https://umjetnai.com/wp-content/uploads/2025/04/businessman-with-smart-artificial-intelligence-ai-2024-10-11-03-45-41-utc-360x180.jpg)

