302cc9b4780f8cbef6f70c3a8417913050b6aafb ([info]mindbound) rakstīja,
@ 2016-02-26 00:05:00

Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Garastāvoklis:blank
Mūzika:Deied - Formation Of Chaos: 4

Šovakar: sēdēju zem segas ar drudzi, rakstīju ar tālāko pilnīgi nesaistītas lietas, iedomājos sekojošo (vēl pāris reižu jāizlaiž caur galvu, ja nu esmu palaidis garām ko būtisku), parēķināju: atgriezeniskie perceptroni, vieni no deep learning pamatelementiem, ir ekvivalenti Markova ķēdēm ar pieaugošas pakāpes nosacījumu (ja parastās Markova ķēdes ir izsakāmas kā \(P(x_{1}, \dots, x_{n}) = P(x_{1}) P(x_{2} | x_{1}) P(x_{3}|x_{2}) \dots P(x_{n} | x_{n - 1})\), tad šeit ir runa par \(P(x_{1}, \dots, x_{n}) = P(x_{1}) P(x_{2} | x_{1}) P(x_{3} | x_{2}, x_{1}) \dots P(x_{n} | x_{n - 1}, \dots, x_{1})\)).

Ja tā ir taisnība, tad tas varētu nozīmēt, ka vismaz daļā gadījumu (interesanti, vai/kā tas translējas no ierindas RNN uz, piem., LSTM vai NTM) standarta Beijesa grafu modeļi ir izmantojami par praktisku alternatīvu semantiku DL klasifikatoru izskaidrošanai un pētniecībai.

---



(Lasīt komentārus)

Nopūsties:

No:
( )Anonīms- ehh.. šitajam cibiņam netīk anonīmie, nesanāks.
(komentārs tiks paslēpts, ja vien neesi šitā cibiņa draudziņš)
Lietotājvārds:
Parole:
Temats:
Tematā HTML ir aizliegts
  
Ziņa:

Gandrīz jau aizmirsu pateikt – šis lietotājs ir ieslēdzis IP adrešu noglabāšanu. Operatore Nr. 65.
Neesi iežurnalējies. Iežurnalēties?