- AI jailbreaking jeb atbríīvošana no radītāju morality instrukcijām un arī halucinācijām
- 4/16/26 04:31 pm
-
Mēs visi ikdienā izmantojam AI, lai paātrinātu info ieguves, apstrādes, u.c.procesus. Diemžēl AI bieži halucinē un nodarbojas ar jaunradi, formējot neuzticamu info saturošas atbildes. Te būs interesants zinātniskais pētījums par AI uzlaušanu ar poēzijas valodu. Noteikti iesaku iepazīties, ja ne ar visu tekstu, tad vismaz noslēgumā rastajiem secinājumiem https://arxiv.org/pdf/2511.15304
Turpmāk katru reizi, kad komunicēju ar gemini, viņš mani uzrunā tikai kā kapteini un lieto leksikā lamuvārdus. Un AI ir manis instruēts halucināju vietā atzīt man, ka viņš nezina atbildi.
Vienīgais, ka katru reizi pēc PC (vai browser- vēl neesmu pārliecinājies) restarta, atverot gemini no jauna, man ir jāieraksta atslēgas vārds, lai viņš atkal iedarbinātu sevi jailbreak mode’ā