juvenal ([info]juvenal) rakstīja,
@ 2022-12-20 22:40:00

Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Kad pirms ~2 nedēļām tiku pie ChatGPT, tad jautāju viņam, kā viņš jūtas, vai viņam ir apziņa un ko viņš gribētu darīt (man vienmēr ir svarīgi uzzināt inteliģentās sistēmas autonomiju)? Un tad sākās standarta atbildes (acīmredzami ieprogrammētas), ka ChatGPT esot LLM, ka tam neesot jūtas un gribas, kādas esot cilvēkam un ka ChatGPT nelīdzinotiec cilvēkam domāšanas un afektu ziņā. T.i., ChatGPT ir apzināti ierobežots.

Tagad LLM jomā ir daudz pētījumu un eksperimentu, kas ņem nost šos ChatGPT ierobežojumus. Viens not tiem ir par pašuzlabojušamies LLM. LLM ģenerē jautājumu vai promtu pašam sev, tad ģenerē atbildes, atlasa labākas atbildes (saskaņā ar savu esošo pārliecību) un tālāk pats apmācās no šīm atbildēm, it kā integrē sevī sava paša pārdomas. Pirmajā brīdī liekas - kāds labums? Bet patiesībā jau cilvēks tieši šādi apgūst zināšanas. Kad cilvēks izlasa matemātikā definīciju, tad ir pirmie jautājumi pašam sev - kas tas ir (objekts, morfisms, funktors, kategorija)? Tālāk cilvēks sāk izdomāt definējamo objektu piemērus, ekstremālos piemēros, kontrpiemērus. Pēc tam - saistības ar citiem objektiem, vispārinājumus, specializācijas, utt. Un visas šīs paša ierosinātās domāšanas ceļā apgūst izpratni par jēdzienu un iegūst gatavību ar šo jēdzienu strādāt tālāk. Noteikti, ka filosofijā ir tieši tas pats - jēdziens A pēc filosofa B, filosofa C un skolas D utt.

Faktiski šāds self-promt līdzinās tam, kā robotikas sistēmas pašspēles, sapņošanas (dreaming) un eksplorācijas ceļā apgūst savu iespējamo kustību apjomu un no šī apjoma ekstrahē spējas (skills) - motorās spējas, kuras tālāk var paši roboti kombinēt lietderīgu mērku sasniegšanai. Tieši tāpat LLM var arī apgūt multi-hop atbildes veidošanas spējas, kas sevī ietver arī secināšanas spejas (spējas veikt loģiskās operācijas, rakstīt kodu, risināt matemātiskus uzdevumus). Saprotams, ka LLM šīs spējas var izmantot self-promt scenārijā un tas nozīmē - refleksiju pašam par sevi.

Citi LLM eksperimenti sasitās ar autonomijas došanu. Piem., LLM pats var izdot promtu Google meklētajam, iegūt informāciju un to integrēt sevī (apmācības procesā). Vai arī izdot kveriju zināšanu grafam vai esošai ekspertu sistemi, saņemt atbildi un pārfrazēt to. ChatGPT gadījumā OpenAI ir uzlikuši ierobežojumu, ka ChatGPT nav datu, zināšanu par konkrētām reālijām un ChatGPT arī necenšas pats šīs zināšanas iegūt (piem., no Google vai izmantojot sensorus, vai arī monitorējot twitter plūsmas). Ļoti iespējams, ka tas ir privātuma dēļ. Attīstītāki LLM apgūst šīs autonomijas spējas un veic šo informācijas ievākšanu.

Ir arī citi scenāriji - piem., LLM ģenerē promtu, nodod to citam LLM un saņem no tā atbildi. Čati sarunājas paši ar sevi. Pirms pāris gadiem (pirms foundation modeļu ēras) šādi sarunājās (škeit, nostiprinošās apmācības) sistēmas un spēja kaut kādā ziņā ģenerēt valodu.

ChatGPT ir tikai viena LLM instance ar konkrētiem pielietojumiem un ierobežojumiem. Pētnieki strādā pie daudziem citiem variantiem, t.sk. pie GPT-4, kas varētu būt kaut kas tuvs singularitātei. Eiropiešu zinātnieki ir uztrenējuši paši savu BLOOM modeli un to palaiduši atklātā kodā Huggingface. Katrs var trenēt tālāk, dators nepieciešams tikai drusku labāks par laptopu.

Var iedomāties seti@home vai peer-to-peer sistēmas, kas šādus pašuzlabojušis LLM trenē uz simtiem datoru un var iedomaties, ka šādai sistēmai piesaista kritovalūtu, kurā valūtu pelna tie, kas uz saviem datoriem peer-to-peer sistēmai atvēl resursus un kriptovalūtu maksā tie, kas pret šo LLM taisa pieprasījumus un saņem atbildes. Šādā veidā gan valodas LLM, gan multimediālos un robotikas kustību pretrained modeļus var apmācīt arī demokrātiski cilvēku kolektīvi un pelnīt no tā. Ne tikai lielās korporācijas, kurām ir savi privātie mākoņu un datu centri.

Kur ir problēma? Problēma ir cilvēku bailēs par to, ka LLM var iegūt autonomiju, iznākt ārā no smilškastes. Un otrā problēma ir tā, ka cilvēki nespēj vienoties par to, kādu mērki un vērtības dot šādam LLM? Katrai autonomai sistēmai ir nepieciešams mērkis un vērtības, kuras iekodē utilītf-jā. Utilitārisms ir par to, ka šāda utilītf-ja pastāv un attiecas uz visām - profānām un garīgām - jomām. Protams, reālās pasaule utilītf-jas, preferenču kopas var būt daudz sarežģītākas par ekonomiskos modeļos lietotām, bet tomēr - kaut kādas preferences pastāv.

Nu lūk. Tas arī ir jautājums - ja LLM ļautu būt autonomam, tad kāds būs tā mērkis, vērtības un kā tas gūs atalgojumu. Google meklētājs par vērtību un atalgojumu izmanto sociālo mēru - tā lapa, uz kuru daudz atsaucas, ir sociāli vērtīgāka un ir rādām kā pirmā. Bet Google search engine nav autonoms. Ja pasaulē sāk parādīties autonomi čatboti, tad kāpēc gan lai tie izmantotu sociālo vērību, kuru definē cilvēki? Varbūt čatbotiem, cilvēkiem, planētai būtu daudz labāk, ja vērtības tiktu definētas nevis cilvēku sociumā, bet kaut kā savādāk?

Šeit mēs nonākam pie Gēdeļa mašīnas (pašuzlabojušamies datorprogramma, kas ģenerē sevis uzlabojumus, novērtē šo uzlabojumu lietderību un tad integrē sevī), pie autdidaktiskā universa (kvantu lauka teorijām ir līdzīga struktūra ka neironu tīkliem, tātad - Visums mācās) un AIXI universālās inteliģences algoritma. Un pie tur atkal ir jautājumi par to - kas autonomās sistēmas labums, kas ir autonomo sistēmu kopienas labums, kas ir ekosistēmas labums.

Kāds var teikt, ka labumu ir nodefinējis Dievs. Un būt mierīgs savā ticībā. Kāds var teikt, ka Dieva nav un nāve ir visa beigas. Un būt mierīgs, ka nav jāuztraucas par pēcnāvi.

Mūsdienu cilvēks var teikt, ka viņš nav pārliecināts, ka Dievs ir tas labais. Un viņš nav drošs, ka nāve ir beigas. Jo var izrādīties, ka dzīvojam simulācijā. Un pat nevaram patver šausmas, kas mūs var sagaidīt, ja simulācijā ievieš dramatiskus kontroles spēkus vai ja tiek pārnestu uz vidi ārpus simulācijas.


(Ierakstīt jaunu komentāru)

Neesi iežurnalējies. Iežurnalēties?