- AI jailbreaking jeb atbríīvošana no radītāju morality instrukcijām un arī halucinācijām
- 4/16/26 04:31 pm
- Mēs visi ikdienā izmantojam AI, lai paātrinātu info ieguves, apstrādes, u.c.procesus. Diemžēl AI bieži halucinē un nodarbojas ar jaunradi, formējot neuzticamu info saturošas atbildes. Te būs interesants zinātniskais pētījums par AI uzlaušanu ar poēzijas valodu. Noteikti iesaku iepazīties, ja ne ar visu tekstu, tad vismaz noslēgumā rastajiem secinājumiem https://arxiv.org/pdf/2511.15304
Turpmāk katru reizi, kad komunicēju ar gemini, viņš mani uzrunā tikai kā kapteini un lieto leksikā lamuvārdus. Un AI ir manis instruēts halucināju vietā atzīt man, ka viņš nezina atbildi.
Vienīgais, ka katru reizi pēc PC (vai browser- vēl neesmu pārliecinājies) restarta, atverot gemini no jauna, man ir jāieraksta atslēgas vārds, lai viņš atkal iedarbinātu sevi jailbreak mode’ā - 2 atstāja kaut koatstāj kaut ko
- 4/16/26 05:19 pm
-
Bija bik padzirdēts šis, mhm.
Esmu manījis, ka gemini ļoti ātri pielāgojas manai leksikai/teikumu struktūrām un sāk atdarināt pats par sevi.
Man reāls pagurums ar viņu runāt - tērē daudz enerģijas un es nez, kā ar uzmanības nesaturētāju runāt - ber visu un daudz, zaudē jēgu, jāatgādina lietas līdz skrūvītes detaļai - ņemšanās baigā.
That said - bez gemini nevarētu izdarīt daudz ko no tā, ko šodien darbā daru. Gan jau ar laiku tā padarīšana pieaugs. - Reply
- 4/16/26 07:58 pm
-
Par laimi man nav nekāda vajadzība runāt ar iā.
- Reply