Eliasmith ir atklājums. Smadzeņu būvēšanai gan īsti negribas piekrist - mūsdienu AGI sistēmas vajadzētu nevis būvēt, bet pieškilt, tālāk tās attīstās pašas. Mijiedarbē ar vidi un sabiedrību. Utility/reward, kas to virza, vispārīgākā formā būtu robustums/ilgstpēja, kuru definētu kaut kādā saistībā ar sistēmas kompleksitāti vai nosacījumu, ka paredzamais dzīveslaiks ir noturīgs pret perturbācijām (atvasinājums, utml.). Bet arī to sistēma atklāj pamazām (The Autodidactic Universe raksts ieskicē problēmas ar reward trūkumu vispārīgā gadījumā (sistēmām, kas vispārīgākas par bioloģiskām), bet Schreiber&Sati ietvars gan jau dod kādas idejas). Bet varbūt Eliasmitham arī tas ir skaidrs, vajadzētu palasīt.
Pēc pusotras nedēļas AGI konference tiem laimīgajiem, kas ar to nodarbojas.
Lai arī cik AGI/commonsense reasoning būtu vilinošs, tomēr tas nedod atbildi uz praktiskiem ML risinājumiem. AGI laikam vēl neesam sasnieguši, bet ir jomas, kurās praktiski MI ir jau pārcilvēcisks. Līdz ar to AGI un mākslīgā apziņa (amcs-community, piem.) nav grāls, kas visu atrisinās. Bet vajadzīgs tas ir. Piem., robotiem, kas liek mazās zivtiņas bundžās.
Praktiski laikam ir svarīgi divi virzieni.
1) neirāli-simboliskā integrācija. Cilvēks domā valodā, cilvēkam ir nepieciešams sevi izteikt vārdos, tēlos, kustībās, materializēt konceptus un saites, lai pats to ieraudzītu, atspertos un ietu tālāk. Un transformeri (OpenAI, Beijing AI, utt.) un citas tīri neirālās sistēmas to pagaidām nedara. Man liekas, ka būtu vērts ieviest simboliskos starpsoļus pirms tālāka resursu patēriņa.
2) un, protams, atklāts ir jautājums par optimālām neirālām arhitektūrām (lai gan skats uz transformeriem ir tik optimistisks, ka motivācija zūd). Varbūt tās ir universālas (fiziskās vides un simetriju noteiktas, jo intelekts ir kermenisks), bet varbūt uzdevuma specifiskas. Protams, arī aktivācijas f-jas, apmācības un optimizācijas (wrt reward/zaudējumu) algoritmi. Bet pēdējās lietas prasa tomēr varēšanu aprakstīt un novērtēt pašu tīklu un tā darbību. T.sk. arī teoriju pastāvēšanu un inferenci/mācīšanos tīklā. Tātad aprakstīt visas teorijas (t.sk. uzdevumus), visus teoriju attēlojumus uz neirālām varietātēm un visus attēlojumus starp dažādu slāņu neirālām varietātēm, lai varētu novērtēte šo inferences/mācīšanās procesu. Liekas šausmīgi. Taču kategoriju teorija (t.sk. toposi) kā reizi varētu būt atbilde. Daudzi teiktu, ka ļoti dārga, bezcerīgi dārga. Bet ņemot vērā matemātikas mašinizāciju (Isabelle, Coq), iegūstam pašuzturošu/pašattīstošu ciklu: neirosimbolisks-MI -> matemātikas starprezultāti -> uzlabots neirosimbolisks-MI -> ...
Šajā visā gan ir viens moments, kas reāli besī. Tas, ka atkal jāiet programmēt. Tas, ka šo visu (toposi, mašinizācija) dara Ķīnas tehnoloģiju giganti ar Eiropas zinātnieku rokām un IP, protams, patur sev. Bet, īstenībā man nav žēl. Ķīna 2021. gadā pirmo reizi R&D ieguldīja vairāk nekā ASV. Dievinu valstis un sabiedrības, kurās roboti un darba automatizācīja un cilvēku materiālās vajadzības tiek vērtēta augstāk par dekadenci un subsidētiem primitīviem darbiem.
Tieši industriāla politika un tās atbilde uz izaicinājumiem (klimats, resursi, nabadzība, nevienlīdzība) varētu būt tas, ko transhumānistu partija varētu dot Latvijai un Eiropai, ja nu kādreiz tādu izveidosim. Izskatās, gan, ka būs jāveido ātrāk nekā vēlāk. Situācija ir tik saspringta.
(Lasīt komentārus)
Nopūsties: