making sense - [ieraksti | vēsture | ko es lasu | par mani]
gedymin

[   par mani   ]
[   arhīvs   ]

[28. Maijs 2013|20:46]
Previous Entry Add to Memories Tell A Friend Next Entry
saiteatstāt nospiedumu

Comments:
[User Picture]
From:[info]mindbound
Date:2. Jūnijs 2013 - 00:17
(Link)
Nevis automātiski "zina", bet automātiski atpazīst. Rakstīju par vienas un tās pašas reprezentācijas apdeitošanu atkarībā no konteksta.

Šī kontekstatkarība tad arī ir invarianču filtrēšanas pamats - katrs neironu ansamblis (kas var būt kolonnas lielumā vai lielāks/mazāks) glabā vienlaikus virkni uzģenerētu referenču kontekstu (gan rotācijai, gan citām transformācijām, tai skaitā krāsai un kontrastam) dotajiem ievaddatiem, more or less like this:



Līdz ar to, tik ilgi, kamēr kādas šī ansambļa apakškopas ar pietiekami lielu varbūtību matchos pret ienākošajiem jaunajiem datiem, invariances tiks "maskētas" un figūras tiks atpazītas kā vienādas/līdzīgas.
[User Picture]
From:[info]mindbound
Date:2. Jūnijs 2013 - 00:21
(Link)
Būtībā, tas, ko jau rakstīju augstāk par probabilistic contextual update.
[User Picture]
From:[info]gedymin
Date:2. Jūnijs 2013 - 00:25
(Link)
ok, tas varbūt strādā uz iemācītiem datiem (sejas), bet kā ar neiemācītiem? Simetrijas noteikšanas proteīna piemērā?

Pie tam, ja tā, tad nākas atzīt, kas šis algoritms ir ļoti neefektīvs, jo nākas glabāt n kopijas katrai dimensijai, pret kuru ir vajadzīga invariance.


BTW, daudzas no "vienas grupas" figūrām es uztvertu kā vāji līdzīgas, laikam pikseļu izsmērēšanās dēļ pie pagriešanas.
[User Picture]
From:[info]mindbound
Date:2. Jūnijs 2013 - 00:30
(Link)
Jā, tas ir ļoti neefektīvs no matemātiska viedokļa. Smadzeņu paternu atpazīšanas efektivitāti nodrošina gigantiska redundance smadzeņu garozā, gan kolonnu kā operatīvo pamatvienību, gan augstākos un zemākos līmeņos.

Kas attiecas uz iemācīšanos, tad cortical learning notiek ātri, ar kārtu aptuveni 0.1 .. 0.5 sekundes (jo šo datu apstrādei nevajag iedarbināt ilgtermiņa atmiņu, pietiek, ka tie tiek propagate'oti cauri reprezentāciju hierarhijai pa taisno no vizuālā input stream).
[User Picture]
From:[info]gedymin
Date:2. Jūnijs 2013 - 00:34
(Link)
Un tādā ātrumā tiek izveidots ļoti daudz objekta kopiju, lai varētu nodrošināt lielo redundanci? Neizklausās ticami.
Tavi skaidrojumi runā viens otram pretī.
[User Picture]
From:[info]mindbound
Date:2. Jūnijs 2013 - 00:36
(Link)
Atkarībā no bitu skaita pēc dense-to-sparse konversijas, bet jā, tipiski ar ātrumu aptuveni no 0.1 līdz 1 sekundei. Ja šādas kopijas tiktu taisītas "jēliem" datiem, tad, droši vien, tas vienkārši nestrādātu.
[User Picture]
From:[info]mindbound
Date:2. Jūnijs 2013 - 00:41
(Link)
Pie tam, cilvēka vizuālā uztvere nav īsti rotational-invariant.

One, the pattern-matching wetware in our brains takes a time to activate that is approximately proportional to the angle of rotation between the comparable samples. Two, our vertical edge detectors are typically more sensitive than our horizontal edge detectors. Three, some of the heavy first-order encoding and pre-processing work is done as early as in our retinal connectomes, to pass for the brain as little data as possible.
[User Picture]
From:[info]gedymin
Date:2. Jūnijs 2013 - 00:59
(Link)
Tā teorija par n reiz m reiz ... kopiju izveidošanu un glabāšanu man joprojām neliekas īsti ticama. Ar kādām metodēm vispār kaut ko tādu var izpētīt un pierādīt?

Vizuālā uztvere ir kaut kādā mērā invarianta, es arī nesaku, ka pilnībā (skat. OP). BTW, teorija, ka vismaz viens ar ekspektāciju sakrītošs stimuls dod pilnu aktivāciju nozīmētu "visu vai neko", neatstājot vietu nekādiem "daļēji".
[User Picture]
From:[info]gedymin
Date:2. Jūnijs 2013 - 01:01
(Link)
Ar labu nakti, es padomāšu vēl par to, kā varētu falsificēt / pamatot to kopiju teoriju.
[User Picture]
From:[info]mindbound
Date:2. Jūnijs 2013 - 01:07
(Link)
Ar labu nakti, un droši, protams. Šī gan nav mana šībrīža lielākā interese, bet tā tik un tā ir neirozinātne.
[User Picture]
From:[info]mindbound
Date:2. Jūnijs 2013 - 01:03
(Link)
Pārbaudīt to varētu, analizējot vienas neironu populācijas darbības potenciālu virkņu korelāciju pie vieniem un tā pašiem ievaddatiem zem dažādām transformācijām. Novērojot, kādas populācijas apakšgrupas ir aktīvas pie atšķirīgiem paraugiem, un kā korelē to ģenerētie kodi.