LLM ir "Large Language Model", LLM, pretrained large models, foundational models - tie visi ir (parasti transformeru arhitektūrā) bāzēti modeļi (ChatGPT ir piemērs), kas ir apmācīti izmantojot daļēji maskētus datus tā, lai spētu ģēnerēt maskātēs vietas. Šādā veidā modeļos tiek iemācītas valodas, multimediālās, kustību-motoriskās spējas, kuras tālāk šie modeļi var izmantot downstream uzdevumu izpildei. Piem., LLM var izmantot kā bāzi, kurai pieliek papildus slāņus un tad izmanto kā čatbotu, kā tekstu kopsavilkumu veidotāju, kā tekstu klasfikatoru, programmas koda ģenerētāju, utt.
(Lasīt komentārus)
Nopūsties: