302cc9b4780f8cbef6f70c3a8417913050b6aafb ([info]mindbound) rakstīja,
@ 2016-02-26 00:05:00

Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Garastāvoklis:blank
Mūzika:Deied - Formation Of Chaos: 4
Entry tags:computers, mathematics, statistics

Šovakar: sēdēju zem segas ar drudzi, rakstīju ar tālāko pilnīgi nesaistītas lietas, iedomājos sekojošo (vēl pāris reižu jāizlaiž caur galvu, ja nu esmu palaidis garām ko būtisku), parēķināju: atgriezeniskie perceptroni, vieni no deep learning pamatelementiem, ir ekvivalenti Markova ķēdēm ar pieaugošas pakāpes nosacījumu (ja parastās Markova ķēdes ir izsakāmas kā \(P(x_{1}, \dots, x_{n}) = P(x_{1}) P(x_{2} | x_{1}) P(x_{3}|x_{2}) \dots P(x_{n} | x_{n - 1})\), tad šeit ir runa par \(P(x_{1}, \dots, x_{n}) = P(x_{1}) P(x_{2} | x_{1}) P(x_{3} | x_{2}, x_{1}) \dots P(x_{n} | x_{n - 1}, \dots, x_{1})\)).

Ja tā ir taisnība, tad tas varētu nozīmēt, ka vismaz daļā gadījumu (interesanti, vai/kā tas translējas no ierindas RNN uz, piem., LSTM vai NTM) standarta Beijesa grafu modeļi ir izmantojami par praktisku alternatīvu semantiku DL klasifikatoru izskaidrošanai un pētniecībai.

---



(Ierakstīt jaunu komentāru)

Neesi iežurnalējies. Iežurnalēties?