Marts 19., 2023
| 12:48
|
Comments:
Neirālo tīklu ģenerētu bilžu atšķiršanai ir metodes (pamatā implementētas kā vēl citi neirālie tīkli), teksta gadījumā es teiktu, ka atšķirt var tikai tad, ja perceptrons pieļauj kļūdas teksta ģenerēšanā veidos, kādus analfabēti parasti nepieļauj (bet kādas uz šo brīdi jau ir ļoti retas, vismaz pie lielajiem modeļiem)
Prognozes? Attēlu, skaņu, video būs iespējams modificēt un ģenerēt pēc pieprasījuma, informācijas patiesuma noskaidrošana arvien vairāk sāks atgādināt kriminālistiku ar specializētiem rīkiem, metodēm un vajadzību apgūt veselu rindu nozaru tās profesionālai darīšanai
Tātad principā vajadzības gadījumā analizējot nekriptētu datu apmaiņu/ tekstus mašīnas varēs noskaidrot kur vēl slēpjas cilvēki?
Jā, pēc tā, ka tikai cilvēki vēl lieto nekriptētu datu apmaiņu :D
pretty sure, ka "neirālo tīklu ģenerēts attēls, kuru neirālie tīkli nevar atpazīt kā neirālo tīklu ģenerētu attēlu" ir in the pipelines right now
Ļoti iespējams
Situāciju nedaudz uzlabo tas, ka vismaz pagaidām neizskatās, ka te būtu universāls risinājums (viena ģenerēšanas metode, kas vienlīdz labi der visu detektēšanas metožu apiešanai), bet 1) jau šobrīd šāda detektēšana nav triviāls uzdevums, 2) pavisam nav izslēgts, ka arī universālas (vai vismaz "pietiekami universālas") metodes ir tikai laika jautājums |
|
|
|
Sviesta Ciba |