Lielie valodu modeļi tagad var paši uzlabot sevi (
https://arxiv.org/abs/2210.11610) - tie ir pārbaroti ar datiem un tagad tiem iestājas apercepcijas process, kurā tie paši sev jautā, paši atbild un labākās savas atbildes iekļauj savā domu plūsmā (apziņā?). Tādā veidā iegūst saprašanu (comprehension) un tas jau ir pamats lai no datiem iegūtu actionable skills. Lielie priekštrenētie modeļi citās modalitātes (vizuālās, kustību) dara to pašu dara, piem., atklājot un uztrenējot savas motorās spējas (ļoti noderēs Tesla Optimist humanoīdam un autonomiem autiņiem). LLM arī aktīvi meklē informāciju paši (
https://arxiv.org/abs/2203.13224),
ja jūt tādu vajadzību.
Tātad lielie modeļi aktīvi darbojas ar ārējiem artifaktiem (verbalizē domu un atklāšanas plūsmu, meklē informāciju), lai sevi uzlabotu un lai labāk kalpotu sabiedrībai. Lieliski, ka tehnoloģiju giganti to visu dara un aktīvi investē. Kāds bija sarēkinājis, ka tādu modeli uztrenēt, vajag 35M$ - tik daudz datorlaika. Tiesa gan, ir arī Franču BLOOM atklātībā palaistais modelis, viņi laikam ir publiskā sektora pētnieki un prata optimālāk izmantot Francijas superdatorus.
Fantastisks laiks! AGI un universāls darba humanoīds (
https://spectrum.ieee.org/tesla-optimus-robot saka, ka tieši AI/AGI daļa ir svarīgākā Teslai) ir jūtams pirkstu galos.
Citiem varbūt ir vienalga, labi tāpat. Un varbūt pat biedē notiekošais. Man, savukārt, ir mentālie un fiziskie trūkumi un man ir nepieciešami šie uzlabojumi, ko tech atnesīs.