Generativ aldınnan tayarlanǵan transformator 1 yaǵnıy GPT-1 (ingl. Generative Pre-Trained Transformer 1, GPT-1) − 2017 jılı Google transformator arxitekturasın oylap tapqannan keyin OpenAI-diń úlken til modelleriniń birinshisi boldı. 2018 jıl iyunda OpenAI «General Pre-trening arqalı tildi túsiniwdi jaqsılaw» atlı maqalasın shıǵardı. Olar generativ aldınnan tayarlanǵan transformatordıń ulıwma koncepciyası menen birge sol baslanǵısh modeldi engizdi.[1]
Usı waqıtqa shekem eń jaqsı jumıs isleytuǵın neyron NLP modelleri tiykarınan qol menen belgilengen maǵlıwmatlardıń úlken kóleminen baqlanatuǵın oqıtıwdı paydalanadı. Baqlanatuǵın oqıtıwǵa ǵárezlilik olardıń jaqsı túsindirilmegen maǵlıwmatlar jıynaǵın paydalanıwın shekledi, sonıń menen qatar júdá úlken modellerdi oqıtıw júdá qımbat hám waqıttı talap etedi; kóplegen tillerge (mısalı suaxili yamasa gaiti kreolı) korpus dúziw ushın qoljetimli teksttiń bolmawına baylanıslı bunday modellerdi paydalanıw arqalı awdarıw hám túsiniw qıyın. Kerisinshe, GPT-diń «yarım baqlanatuǵın» usılı eki basqıshtı qamtıdı: baslanǵısh parametrlerdi ornatıw ushın tildi modellestiriw maqseti paydalanılǵan baqlanbaytuǵın generativ «shınıǵıwǵa shekemgi» basqısh hám olar parametrler maqsetli wazıypaǵa beyimlengen.
Transformator arxitekturasın paydalanıw, itibardı kúsheytetuǵın RNN-di óz ishine alǵan aldınǵı usıllarǵa qaraǵanda, GPT modellerin qaytalanatuǵın mexanizmler arqalı erisiwge bolatuǵın strukturalıq yad penen támiyinledi; bul «hár túrli wazıypalar boyınsha isenimli jetkerip beriw ónimliligine» alıp keldi.