![]() ![]() |
從零開始寫大模型
"《從零開始寫大模型:從神經(jīng)網(wǎng)絡(luò)到Transformer》結(jié)合豐富的圖示和程序示例,全面、系統(tǒng)地介紹大模型的基本原理,并通過一個(gè)極簡大語言模型構(gòu)建案例帶領(lǐng)讀者上手實(shí)踐。本書學(xué)習(xí)門檻極低,即便零基礎(chǔ)的讀者,也能在本書的引領(lǐng)下比較輕松地掌握大模型的基本知識(shí)體系,并理解大模型的基本原理,從而為日后進(jìn)一步學(xué)習(xí)打好基礎(chǔ)!稄牧汩_始寫大模型:從神經(jīng)網(wǎng)絡(luò)到Transformer》提供配套教學(xué)視頻、源代碼和教學(xué)PPT等超值配套資源,以方便讀者高效、直觀地學(xué)習(xí)。
《從零開始寫大模型:從神經(jīng)網(wǎng)絡(luò)到Transformer》共20章,分為5篇。第1篇神經(jīng)網(wǎng)絡(luò)快速入門,介紹神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)和結(jié)構(gòu);第2篇Transformer架構(gòu)基礎(chǔ),介紹幾種經(jīng)典的編解碼架構(gòu)、Tokenization基礎(chǔ)知識(shí)、Transformer架構(gòu)涉及的數(shù)學(xué)概念;第3篇Transformer模型剖析,首先介紹大語言模型的概念和參數(shù)規(guī)模,然后介紹Transformer的詞匯輸入模塊、注意力機(jī)制模塊和輸出模塊,最后介紹基于Transformer架構(gòu)的模型訓(xùn)練過程、推理過程、優(yōu)化方法和超參數(shù);第4篇Transformer進(jìn)階,首先介紹如何使用Python實(shí)現(xiàn)一個(gè)簡單的Transformer架構(gòu),然后介紹BERT和GPT兩種經(jīng)典大語言模型,最后給出國內(nèi)一些大公司的高頻面試題;第5篇GPT模型完全體驗(yàn)之MiniMind,詳細(xì)介紹一個(gè)開源極簡大語言模型MiniMind的項(xiàng)目情況、代碼結(jié)構(gòu),以及安裝、訓(xùn)練、微調(diào)與推理過程等,帶領(lǐng)讀者體驗(yàn)大語言模型的完整構(gòu)建過程。
《從零開始寫大模型:從神經(jīng)網(wǎng)絡(luò)到Transformer》內(nèi)容豐富,通俗易懂,案例典型,講解深入淺出,特別適合零基礎(chǔ)學(xué)習(xí)大模型的讀者閱讀,也適合IT領(lǐng)域或其他領(lǐng)域向AI轉(zhuǎn)型但缺乏基礎(chǔ)的程序員、工程師等相關(guān)從業(yè)人員閱讀,還適合高等院校和培訓(xùn)機(jī)構(gòu)作為大模型的入門教材或教學(xué)參考書。"
你還可能感興趣
我要評(píng)論
|