Veliki modeli jezika (LLM) postaju sve točniji u odgovaranju na teže pitanja kada im se dopusti više vremena za razmišljanje o potencijalnim rješenjima. Istraživači mogu omogućiti modelu da provede više vremena razmišljajući o potencijalnim rješenjima, ali uobičajeni pristupi koji LLM-u daju ovu sposobnost postavljaju fiksni računarski budžet za svaki problem, nezavisno od njegove složenosti. To znači da LLM može potrošiti računske resurse na jednostavnija pitanja ili ne moći riješiti složenija pitanja koja zahtijevaju više razmišljanja.
Da bi riješili ovaj problem, istraživači s MIT-a razvili su pametniji način za alokaciju računarskih napora dok LLM rješava problem. Njihova metoda omogućuje modelu da dinamički prilagodi svoj računarski budžet ovisno o težini pitanja i vjerojatnosti da će svaka djelomična rješenja voditi do točnog odgovora.
Istraživači su pronašli da njihova nova metoda omogućuje LLM-ovima da koriste polovicu računanja u usporedbi s postojećim metodama, dok održavaju ili čak pobjeđuju u točnosti na raznim pitanjima različite težine. Osim toga, njihova metoda omogućuje manjim, manje resursno zahtjevnim LLM-ovima da postignu rezultate koji su jednaki ili čak bolji od većih modela na složenim problemima.
Poboljšavanjem pouzdanosti i učinkovitosti LLM-a, posebno kada se bave složenim zadacima razmišljanja, ova tehnika može smanjiti potrošnju energije generativnih AI sustava i omogućiti upotrebu LLM-a u aplikacijama s većim rizicima i vremenski ograničenim.
“Računarski trošak inferencije brzo je postao glavni uski grlo za pružatelje modela na vrsnom razini, i aktivno traže načine za poboljšanje učinkovitosti računanja po korisničkim upitima. Na primjer, nedavni GPT-5.1 izdanje ističe učinkovitost pristupa ‘adaptivnog razmišljanja’ koji naš članak predlaže. Dajući modelima sposobnost da znaju što ne znaju, omogućujemo im da troše više računa na najtežim problemima i najobičajnijim putovima rješenja, a koriste mnogo manje tokena na jednostavnim. To čini razmišljanje i pouzdanijim i daleko učinkovitijim,” kaže Navid Azizan, Alfred H. i Jean M. Hayes Career Development Assistant Professor na Odjelu za mehanički inženjering i Institutu za podatke, sustave i društvo (IDSS), glavni istraživač Laboratorija za informacije i odluke (LIDS) i senior autor članka o ovoj tehnici.
Azizan je na članku koautor s Young-Jin Park, LIDS/MechE diplomant, Kristjan Greenewald, istraživač u MIT-IBM Watson AI Labu, Kaveh Alim, IDSS diplomant i Hao Wang, istraživač u MIT-IBM Watson AI Labu i Red Hat AI Innovation Teamu. Istraživanje se ovaj tjedan prezentira na Konferenciji o obradi informacija u neuronskim sustavima.
Nedavni pristup zvan inference-time scaling omogućuje velikom modelu jezika da potroši više vremena razmišljajući o teškim problemima.
Koristeći inference-time scaling, LLM može generirati više pokušaja rješenja odjednom ili istražiti različite putove razmišljanja, a zatim odabrati najbolje od tih kandidata za nastavak.
Odvojeni model, poznat kao process reward model (PRM), ocjenjuje svaku potencijalnu rješenje ili put razmišljanja. LLM koristi ove ocjene za identifikaciju najobičajnijih.
Tipični inference-time scaling pristupi dodjeljuju fiksni iznos računanja LLM-u da bi problem razbio i razmislio o koracima.
Umjesto toga, istraživačeva metoda, poznata kao instance-adaptive scaling, dinamički prilagođava broj potencijalnih rješenja ili koraka razmišljanja ovisno o tome koliko su vjerojatni da će uspjeti, dok model bori s problemom.
“To je kako ljudi rješavaju probleme. Izmišljamo neke djelomične rješenja, a zatim odlučujemo, hoću li dalje s bilo kojim od ovih, prestati i revidirati ili čak se vratiti na svoj prethodni korak i nastaviti rješavati problem od tamo?” objašnjava Wang.
Da bi to učinio, okvir koristi PRM za procjenu težine pitanja, pomažući LLM-u da procijeni koliki računarski budžet treba iskoristiti za generiranje i razmišljanje o potencijalnim rješenjima.
U svakom koraku u procesu razmišljanja modela, PRM pregleda pitanje i djelomična rješenja i procjenjuje koliko je svako od njih običajno za doći do točnog rješenja. Ako je LLM više uvjeren, može smanjiti broj potencijalnih rješenja ili putova razmišljanja koje treba nastaviti, štedeći računske resurse.
Ali istraživači su pronašli da postojeći PRM-ovi često previše procjenjuju modelovu vjerojatnost uspjeha.
… previše samouvjerenosti… ako bismo samo vjerovali trenutnim PRM-ovima, koji često previše procjenjuju šansu uspjeha, naš bi sustav preagresivno smanjio računarski budžet. Prvo smo morali pronaći način da bolje kalibriramo PRM-e da bismo omogućili inference-time scaling.
Da bi to učinili, istraživači su razvili novi PRM koji bolje kalibrira modelovu vjerojatnost uspjeha. Novi PRM koristi dodatne podatke o modelu i problemu da bi bolje procijenio vjerojatnost uspjeha, smanjujući previše samouvjerenost.
Istraživači su testirali novi PRM na raznim problemima i pronašli su da on bolje kalibrira modelovu vjerojatnost uspjeha, smanjujući previše samouvjerenost i poboljšavajući učinkovitost inference-time scaling-a.
Istraživači su također testirali novi PRM na velikim modelima jezika i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.
Istraživači su također usporedili novi PRM s postojećim PRM-ovima i pronašli su da on poboljšava njihovu točnost na složenim problemima razmišljanja, čak i kada su modeli trenirani na malim skupovima podataka.





![ChatGPT 5 je stigao: brži, pametniji i dostupan svima [Besplatno] 6 chatgpt5](https://umjetnai.com/wp-content/uploads/2025/08/chatgpt5-360x180.webp)







![Novi hibridni platforma za kvantnu simulaciju magnetizma 14 ChatGPT 5 je stigao: brži, pametniji i dostupan svima [Besplatno]](https://umjetnai.com/wp-content/uploads/2025/08/526750221_1101661142120887_3623883531199391571_n-1-360x180.jpg)
