ctulhu ([info]ctulhu) rakstīja,
@ 2024-11-21 14:02:00

Previous Entry  Add to memories!  Tell a Friend!  Next Entry
Nu es tak teicu
ka ar saulēm un vējiem nepietiks

https://www.lsm.lv/raksts/zinas/ekonomika/21.11.2024-bloomberg-eiropa-pieaug-gazes-cenas-ik-nedelu-zino-par-rupnicu-slegsanu.a577224/?utm_source=inbox&utm_campaign=news&utm_medium=frontpage


(Lasīt komentārus) - (Ierakstīt jaunu komentāru)


[info]mindbound
2024-11-22 11:17 (saite)
Kā minimums pirmo un kādas 4/5 no otrā, specifiski "nav vajadzīgi starptautiski veidojumi ar plašām tiesībām bremzēt un iesaldēt AI R&D" un "noteikti nav vajadzīgi regulējumi attiecībā uz modeļu trenēšanai un inferencei atlikto skaitļošanas jaudu".

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]hedera
2024-11-22 11:27 (saite)
Nu es piemēram skatos šeit un redzu vairākus ļoti prātīgus regulējumus:

Unacceptable risk AI systems are systems considered a threat to people and will be banned. They include:

Cognitive behavioural manipulation of people or specific vulnerable groups: for example voice-activated toys that encourage dangerous behaviour in children
Social scoring: classifying people based on behaviour, socio-economic status or personal characteristics
Biometric identification and categorisation of people
Real-time and remote biometric identification systems, such as facial recognition


Some exceptions may be allowed for law enforcement purposes. “Real-time” remote biometric identification systems will be allowed in a limited number of serious cases, while “post” remote biometric identification systems, where identification occurs after a significant delay, will be allowed to prosecute serious crimes and only after court approval.

All high-risk AI systems will be assessed before being put on the market and also throughout their lifecycle. People will have the right to file complaints about AI systems to designated national authorities.



Transparency requirements
Generative AI, like ChatGPT, will not be classified as high-risk, but will have to comply with transparency requirements and EU copyright law:

Disclosing that the content was generated by AI
Designing the model to prevent it from generating illegal content
Publishing summaries of copyrighted data used for training



High-impact general-purpose AI models that might pose systemic risk, such as the more advanced AI model GPT-4, would have to undergo thorough evaluations and any serious incidents would have to be reported to the European Commission.

Content that is either generated or modified with the help of AI - images, audio or video files (for example deepfakes) - need to be clearly labelled as AI generated so that users are aware when they come across such content.

Ja tu iesaki praktiski visu izmest laukā, tad šie aspekti paliek neregulēti. Spilgts piemērs: te pat ir iekļauts, ka "social scoring" sistēmas tiks banotas. Un tu taču bieži piesauc Ķīnu kā negatīvo piemēru šajā ziņā. Tad jocīgi, ka, kritizējot šo EU aktu, tu nesaki, ka lūk - vismaz vienu punktu viņi vērtīgu iekļāvuši.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]mindbound
2024-11-22 12:01 (saite)
Well, "prātīgs" ir ne pilnīgi, bet palielā mērā pa straumi uz leju no prioritātēm, mērķiem un visa kā tāda, līdz ar to par to es īsti nevaru strīdēties.

Pret social scoring kā tādu es esmu lielā mērā vienaldzīgs, es Ķīnu kā negatīvo piemēru piesaucu specifiski "social scoring kā valsts varas instruments, no kura indivīds nevar atrakstīties un kurā viņš nav voluntāri ierakstījies un kas kopā ar citiem valsts varas rīkiem dod bezprecedenta un bezkondīciju iespējas valstij regulēt indivīda dzīvi" kontekstā (runājot par kuru, tajā pašā AI aktā var manīt, ka daudz kas ir banojams, kamēr to neizmanto varas iestādes (tepat lasāmie punkti par "some exceptions" attiecībā uz biometriku), kas, protams, meiko sensu no varas iestāžu viedokļa, varas monopols ir svēta lieta utt.).

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]hedera
2024-11-22 12:10 (saite)
Šis gan ir interesanti. Tātad tu nemaz nesaskati problēmas ar social scoring kā tādu? Nu piemēram, ja privātie uzņēmumi, kuri ir Latvijā lielākie darba devēji, sāktu izmantotu social scoring AI sistēmas darbinieku atlasei, tur tu nesaskatītu nekādas problēmas?

"Well, "prātīgs" ir ne pilnīgi, bet palielā mērā pa straumi uz leju no prioritātēm, mērķiem un visa kā tāda, līdz ar to par to es īsti nevaru strīdēties."

Šo es nesapratu. Es savā komentārā iekļāvu konkrētus piemērus, kas man liekas prātīgi regulējumi. Ja tev tie šķiet nevajadzīgi, tad tev ir iespēja izklāstīt, kādēļ. Respektīvi, es te cenšos iet konkrētības virzienā. Piemēram, pastāsti, kādēļ nav vajadzīgs regulējums, kas aizliedz ar AI aprīkotas rotaļlietas, kuras varētu negatīvi ietekmēt bērnu uzvedību. Vai arī, kādēļ nav vajadzīgs noteikums par disclosure, ja materiāla veidošanā izmantots AI.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)

(Nodzēsts puksts)

[info]hedera
2024-11-22 12:30 (saite)
Hm, izskatās, ka tev nemaz neinteresē, lai pasaule būtu laba vieta dzīvošanai pēc iespējas lielākai daļai sabiedrības. Vismaz no šī secinu, ka tu to zin-teh progresu liec kā pašmērķi, bet cilvēku labklājība un drošība tev ir vienaldzīga.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]mindbound
2024-11-22 12:40 (saite)
Es to lieku kā plaša spektra mērķi, bet šoreiz nav runa par to.

Uzskatu, ka diskriminācija ir viennozīmīgi slikta tad, kad tā ietver represijas, vajāšanas u.c., bet uzskatu arī, ka kontekstā "selektīva cilvēku uzņemšana konkrētās vai abstraktās telpās (bet ne izlaišana no tām, kam priekš manis ir pilnīgi cits un daudz augstāks svars)" tā ir tikai īgns veids, kā nosaukt asociēšanās brīvību. Not to mention, strādāšana specifiski uzņēmumā X nav brīvība vai tiesības, tā ir privilēģija.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]mindbound
2024-11-22 13:19 (saite)
Vienā no vietām, kurās esmu strādājis, esmu ticis pārbaudīts uz:
  1. izglītību,
  2. sodāmību,
  3. darba pieredzi un iepriekšējo darba devēju vērtējumu pēdējo 5 gadu laikā,
  4. sociālo mēdiju saturu,
plus, protams, profesionālās veselības stāvokli un darbam atbilstošām prasmēm un zināšanām (2 tehnisko interviju kārtas). Tā visa ir profilēšana un "diskriminācija" (darba vietas izvēlīgums darbinieku uzņemšanas procesā), bet man ar to nav nekādu problēmu, jo es izvēlējos kandidēt uz šo pozīciju un, ja būtu ticis noraidīts, tas nesamazinātu manas izredzes tikt pieņemtam darbā kaut kur citur. AI šeit neko būtiski nemainītu, tikai saīsinātu šiem procesiem patērēto laiku, kas nāk par labu darba meklētājam (vienalga, vai tiec vai netiec uzņemts, tev nav jāgaida papildus nedēļu uz rezultātiem).

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]hedera
2024-11-22 15:01 (saite)
Svarīgu lēmumu pieņemšanu uzticēt nedomājošai "black box" sistēmai ir ļoti muļķīga ideja. AI ir lieliski rīki, lai ietaupītu laiku dažādos veidos, bet pagaidām neizskatās, ka paredzamā nākotnē būs iespējams uz tiem droši paļauties bez stingras profesionāļu uzraudzības. Tiešām brīnos, ka man tas būtu tev jāskaidro.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]mindbound
2024-11-22 15:13 (saite)
Šeit jau arī nav runas par pilnīgi autonomu sistēmu izmantošanu tādiem uzdevumiem.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]hedera
2024-11-22 16:51 (saite)
Bet mēs nerunājam par to, ka kāds HR darbinieks izmanto chatGPT, lai sagrupētu iesūtītos CV pēc dažādiem parametriem. Mēs runājam par "Social scoring: classifying people based on behaviour, socio-economic status or personal characteristics", kā tas ir definēts EU aktā. Tā kā - jā, ir gan šeit runa par to, ka kāds varētu izmantot pilnīgi autonomu sistēmu darbinieku atlasei, kā viens no piemēriem.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]mindbound
2024-11-22 16:54 (saite)
Jebkurā reālistiskā scenārijā CV grupēšana ietver arī komponentus no minētā, bet anyway. Tev šķiet, ka šīs regulas ir vajadzīgas, man šķiet, ka tās ir antivajadzīgas, let's agree to disagree.

(Atbildēt uz šo) (Iepriekšējais)


[info]ctulhu
2024-11-22 12:59 (saite)
ZT progress ir tas kas rada labklājību un drošību

(Atbildēt uz šo) (Iepriekšējais)


[info]mindbound
2024-11-22 12:29 (saite)
> ja privātie uzņēmumi, kuri ir Latvijā lielākie darba devēji, sāktu izmantotu social scoring AI sistēmas darbinieku atlasei, tur tu nesaskatītu nekādas problēmas?

Ģenerāli nē, tāpat, kā par selektīvu uzņemšanu jebkuros citos privātos opt-in un opt-out pasākumos (kas anyway jau tiek darīts praktiski visur un pie visiem, tikai šobrīd pārsvarā manuāli).

> Piemēram, pastāsti, kādēļ nav vajadzīgs regulējums, kas aizliedz ar AI aprīkotas rotaļlietas, kuras varētu negatīvi ietekmēt bērnu uzvedību.

Es uzskatu, ka tas ir kārtējais "pixel peril" roku žņaudzīšanas piemērs, mēs tur jau esam bijuši ar paniku par datorspēlēm, kas negatīvi ietekmējot bērnu uzvedību un digitālām bez-AI rotaļlietām, kas negatīvi ietekmējot bērnu uzvedību utt., utjpr., nekam no kā nav izdevies iegūt substanciālu evidenci, par spīti tam, ka šis trends ir lējis ūdeni uz regulācijmīļu dzirnavām kopš vismaz 90tajiem.

> Vai arī, kādēļ nav vajadzīgs noteikums par disclosure, ja materiāla veidošanā izmantots AI.

Neuzskatu, ka tas ir jebkas tik būtisks, lai tam vajadzētu ieviest kārtējo regulāciju jau tā šķietami bezgalīgajā regulāciju sarakstā. Pret to kā recommended best practice man, protams, nav nekādu iebildumu.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]ctulhu
2024-11-22 13:20 (saite)
ne tikai kopš 90 jiem, tak ir grāmatas slēptas no bērniem un tml.

(Atbildēt uz šo) (Iepriekšējais) (Diskusija)


[info]mindbound
2024-11-22 13:22 (saite)
Jā, un, pirms kāds varētu sākt mētāties ar apsūdzībām, es viennozīmīgi atbalstu regulācijas uz krimināla vai nešaubīgi sevi un citus apdraudoša materiāla klātbūtni. Šis tikai nav par to.

(Atbildēt uz šo) (Iepriekšējais)


(Lasīt komentārus) -

Neesi iežurnalējies. Iežurnalēties?