Bet es jau par to arī saku.
Es jau no sākta gala neteicu, ka GPT nevar tev sakombinēt tekstu tā, lai izskatās noderīgi -- un jo formālāks un vienveidīgāks teksts, jo faktiski arī noderīgāk var būt. Īpaši ja tu viņam vēl savu tekstu iebaro kā avotu, vispār ideāli.
Skaidrs, ka viņš tev ir noderīgs, un labi ka tā. Ietaupa tev kaudzi laika.
Viss _sākotnējas_ ieraksts bija par to, ka GPT ir valodas lietošanas rīks nevis domāšanas atvieglošanas. Jo daudzi cilvēki jauc.
Man šķiet šis komentārs turpat tai linkā, ko es liku, to pasaka gana labi:
That still wouldn't help here. We don't want the prediction confidence that the sequence of words you produced might appear in a valid English-language sentence produced by humans. We want the prediction confidence that the sentence is factually accurate. These models aren't given that kind of data to train on and I'm not sure how they even could be. There are oodles and oodles of human-generated text out there, but little in the way of verification regarding how much of it is true, to say nothing of categories of language like imperative and artistic that don't have truth values at all.
Turpast tālāk arī cilvēki min, ka arī kodu rakstot, GPT nereti kļūdās, un ir interesanti, kādā veidā un kas tad notiek:
https://news.ycombinator.com/item?id=33843104