ctulhu ([info]ctulhu) rakstīja,
@ 2015-11-01 09:17:00

Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Kā tas ir ar mērķiem:
Vispirms mērķi iedalās instrumentālajos un terminālajos.

Instrumentālie ir tādi, kuru sasniegšana ir nepieciešams nosacījums kādu citu mērķu sasniegšanai. Tādu ir vairums.
Terminālie ir tie, kurus sasniedzot, dotā saprāta lietderības funkcija (utilītfunkcija) ir izpildīta.

Tālāk par terminālajiem, kādi tie var būt:

Tie var būt bāzes un blakus. Blakus terminālie mērķi ir aktuāli līdz to sasniegšanai - tātad izdarīt kaut ko , kas dotajam saprātam ir svarīgs, sastāda tā utilītfunkciju. Tas var būt jebkas.

Bāzes terminālie mērķi ir tādi, kuri dotajam saprātam ir aktuāli jebkurā tā pastāvēšanas momentā.

Bāzes terminālie mērķi var būt tādi, kas nodrošina turpinājumu un kas nenodrošina - noved pie dotā saprāta pastāvēšanas beigām. Tos, kas nodrošina, saucu par ilgtspējīgiem.

Ilgtspējīgie bāzes terminālie mērķi savukārt iedalās reālos un nereālos (īstos un neīstos), nereālie ir tādi, kas ir pretrunā ar loģiku un/ vai paredz loģiski neiespējamu lietu eksistenci.

Tātad kas mums paliek:

Īstie ilgtspējīgie bāzes terminālie mērķi.

Kādi tie var būt?

Es zinu vienu:

Pārvarēt jebkuras robežas. Atcelt jebkuras beigas.

Tas ir - ZTP parastais + humānisms un tā ekstensija kognitārisms kā viņa realizēšanas nepieciešamais nosacījums.


Kāds zina vēl kādu? (es nesaku, ka nav)


(Ierakstīt jaunu komentāru)


[info]mindbound
2015-11-01 12:27 (saite)
"Bāzes" terminālo mērķu eksistence, ciktāl man zināms, nav garantēta (un pats jautājums par to garantēšanas iespējām, šķiet, ir izomorfisks FAI problēmai).

Kas attiecas uz ilgtspējīgumu, tad, lai tas vispāri būtu prioritārs, tam (triviāli, bet fakts) ir jābūt iekodētam aģenta utilītfunkcijā (= terminālo mērķu kopā), kas, būtībā, noved pie cirkulāra argumenta – par savas utilītfunkcijas ilgtspējīgumu uztrauksies tikai tie aģenti, kuru utilītfunkcija satur rūpes par tās ilgtspējīgumu. Vai savas utilītfunkcijas saglabāšana laikā ir kaut kas tāds, uz ko konverģēs lielas kopas brīvi izvēlētu racionālu aģentu (kā to prognozē Omohundro), pagaidām, šķiet, arīdzan ir atklāts jautājums.

(Atbildēt uz šo) (Diskusija)


[info]ctulhu
2015-11-01 13:14 (saite)
Bet var runāt par kopīgiem BTM konkrētai saprātu grupai droši vien

(Atbildēt uz šo) (Iepriekšējais)


[info]honeybee
2015-11-01 14:48 (saite)
es, protams, atkal to nevaru noformulēt jēdzīgi,

bet man šķiet, ka prikols ir ne tikai mērķos, bet arī procesā, nu tb pofig, kāds tev ir mērķis, ja ceļš līdz tam nemērā sūkā katrā tā posmā, tad kaut kas nav kārtībā (tb imo ir jēga veidot procesus, kurā pie mērķiem nonāk čerez že, bet toties patīkami) un integrēt šādu procesu jau pirmajos līmeņos, lai neaizmirstas

nu ja mēs vispār runājam par tādiem saprātiem, kas ir spējīgi just prieku un gandarījumu (bet then again, ja es pareizi saprotu, arī AGI principā jābūt prieka/gandarījuma aproksimācijai?)

(Atbildēt uz šo) (Diskusija)


[info]ctulhu
2015-11-01 15:08 (saite)
/imo ir jēga veidot procesus, kurā pie mērķiem nonāk čerez že, bet toties patīkami/

Jā. Šitas ir t.s. "Gorbovska postulāts" , Gorbovskis - viens no Strugacku varoņiem. Tātad: pareizais risinājums ir nevis pats efektīvākais, bet pats humānākais (oriģinālā "samoje dobroje").

Es domāju, ka šis postulāts ir sekas tam pašam ilgtspējīguma imperatīvam. Risinājumi atkāpjoties no humānisma alias no patīkamā var būt īstermiņā efektīvāki bet ilgtermiņā samazinās sistēmas stabilitāti un viņa nobruks. Turklāt tāda veida feileriem/ to sekām ir tendence uzkrāties.

Ilustrācija - tu vari uztaisīt impēriju caur lēģeriem un badu, viņa pat vienu brīdi būs varena impērija, bet tad viņa nobruks, jo iekšējās pretrunas pastāvēs un uzkrāsies.

/ ja es pareizi saprotu, arī AGI principā jābūt prieka/gandarījuma aproksimācijai?/

Es domāju, ka tas ir motivācijas sistēmas pamatā.



(Atbildēt uz šo) (Iepriekšējais)


[info]mindbound
2015-11-01 16:53 (saite)
Attiecībā uz "[..] bet then again, ja es pareizi saprotu, arī AGI principā jābūt prieka/gandarījuma aproksimācijai?" – tas atkarīgs no tā, cik tuva bioloģiskām smadzenēm (vai, ņemot vienu meta līmeni augstāk, reinforcement learning sistēmai) tuva ir AGI implementācija. Long story really short: var būt, bet nav obligāti.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]honeybee
2015-11-01 16:54 (saite)
galnais tad neimplementēt skaudības aproksimāciju par to, ka citi var priecāties, bet viņi nē :)

/jk

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]mindbound
2015-11-01 16:54 (saite)
XD

(Atbildēt uz šo) (Iepriekšējais)


Neesi iežurnalējies. Iežurnalēties?