LLM, pretrained modeļu sāls ir tajā, ka šos modeļus apmāca no datiem, kas ir pieejami visapkārt, jau gatavā veidā. Piem., no tekstu korpusa, kurā varbūtiski nomaskē vārdus. Tā ir liela revolūcija, jo līdz šim MI sistēmas apmācīja pēc sagatvotiem datiem (piem., pēc valodu divu teikumu tulkojuma pāra, pēc teksta-kopsvilkuma pāra, pēc datorspēles uzvaras signāla, pēc cilvēka demonstrētas kustības robotam). Pretrained modeļu pieeja ir tā, kā šāda iepriekšsagatavoti, dārgi dati nav vajadzīgi. Var izmantot pilnīgi jebko, kas eksistēm. Piem., roboti savas spējas var noskatīties no youtube klipiem.
Līdz šim tieši dārgie un nepieejami dati bija viena no šaurajām vietām MI attīstībai.
Un nākamā MI-LLM revolūcija ir tā, ka uztrenētie LLM modeļi paši tālāk var sevi trenēt (self-promt un citas stratēģijas) apdomājot un sevī integrējot tos datus, zināšanas, kas šiem modeļiem jau ir, bet neapzinatā, īsti nelietojamā veidā.
(Lasīt komentārus)
Nopūsties: