302cc9b4780f8cbef6f70c3a8417913050b6aafb ([info]mindbound) rakstīja,
@ 2018-01-11 09:54:00

Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Garastāvoklis:working
Mūzika:Lustmord - Zoetrope: The Harrow
Entry tags:computers:ml, news, science:papers

Runājot par jomām, kurās algoritmi pārspēj cilvēkus, nākamo paaudžu melu detektoru rezultātus, iespējams, varēs ņemt vērā tādā un lielākā mērā, kā to savulaik bija iecerējuši sevi neattaisnojušo poligrāfa tipa detektoru autori. Jau šobrīd pavisam agrīns prototips [1] pārspēj ne tikai ierindas novērotājus, bet arī ekspertus [2] un autori prognozē, ka aptuveni nākamo piecu gadu laikā varētu tikt sasniegts līmenis, kur šis vai līdzīgi dziļās mašīnapmācības risinājumi spēj attiecīgās funkcijas pildīt praktiski nekļūdīgi [3].

[1] https://doubaibai.github.io/DARE/
[2] https://arxiv.org/abs/1712.04415
[3] https://futurism.com/new-ai-detects-deception-bring-end-lying-know-it/



(Lasīt komentārus) - (Ierakstīt jaunu komentāru)


[info]ctulhu
2018-01-12 00:45 (saite)
Laikam tad optimāli, ja rīki ir visiem, iestājas līdzsvars

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]mindbound
2018-01-12 01:15 (saite)
Līdzsvaru šādos kontekstos, kā likums, ir grūti prognozēt, bet par pieejamību, šķiet, nav jāsatraucas – praktiski visi šobrīd izmantotie deep learning rīki ir bāzēti uz open source risinājumiem. To trenēšanai izmantotie dati nereti ir cits jautājums, bet daudzos gadījumos arī tie ir plaši pieejami (pie tam, kā redzams no neseniem piemēriem, ļoti labus rezultātus dod arī šo sistēmu darbība pašmācības režīmā).

(Atbildēt uz šo) (Iepriekšējais)


(Lasīt komentārus) -

Neesi iežurnalējies. Iežurnalēties?