學(xué) AI,來極客時(shí)間!
利用大模型構(gòu)建應(yīng)用過程中無法避免的問題
提升 LLM 應(yīng)用性能的關(guān)鍵 — 微調(diào)
主流大模型微調(diào)技術(shù)方法全覆蓋
掌握大模型微調(diào)利器
多角度實(shí)戰(zhàn),全面掌握微調(diào)核心技能
課程大綱
- 預(yù)熱篇
-
- 第一章
- 第二章
第一章:AI 大模型四階技術(shù)總覽
-
深度解讀 AI 發(fā)展四輪浪潮
-
AI 大模型四階技術(shù)總覽
第二章:大語言模型技術(shù)發(fā)展與演進(jìn)
-
統(tǒng)計(jì)語言模型
-
神經(jīng)網(wǎng)絡(luò)語言模型
-
基于 Transformer 的大語言模型
- 大模型訓(xùn)練理論+實(shí)戰(zhàn)篇
-
- 第三章
- 第四章
- 第五章
- 第六章
- 第七章
- 第八章
- 第九章
- 第十章
- 第十一章
- 第十二章
- 第十三章
- 第十四章
- 第十五章
- 第十六章
第三章:大模型開發(fā)工具庫 Hugging Face Transformers
-
Hugging Face Transformers 快速入門使用 Pipelines 快速實(shí)踐大模型 使用 Tokenizer 編解碼文本 使用 Models 加載和保存模型
-
大模型開發(fā)環(huán)境搭建
-
實(shí)戰(zhàn) Hugging Face Transformers 工具庫
第四章:實(shí)戰(zhàn) Transformers 模型訓(xùn)練
-
數(shù)據(jù)集處理庫 Hugging Face Datasets
-
Transformers 模型訓(xùn)練入門
-
實(shí)戰(zhàn)使用 Transformers 訓(xùn)練 BERT 模型
第五章:大模型高效微調(diào)技術(shù)揭秘(上)
-
Before PEFT:Hard Prompt / Full Fine-tune
-
PEFT 主流技術(shù)分類介紹
-
PEFT – Soft Prompt 技術(shù)(Task-specific Tuning)
-
PEFT – Soft Prompt 技術(shù)(Prompt Encoder)
第六章:大模型高效微調(diào)技術(shù)揭秘(下)
-
PEFT 基于重參數(shù)化(Reparametrization-based)訓(xùn)練方法
-
UniPELT:大模型 PEFT 統(tǒng)一框架(2022)
-
(IA)3:極簡主義增量訓(xùn)練方法 (2022)
第七章:大模型高效微調(diào)工具 Hugging Face PEFT 入門與實(shí)戰(zhàn)
-
Hugging Face PEFT 快速入門AutoPeftModels、PeftModel PeftConfig PeftType | TaskType
-
實(shí)戰(zhàn) PEFT 庫 LoRA 模型微調(diào)
第八章:大模型量化技術(shù)入門與實(shí)戰(zhàn)
-
模型顯存占用與量化技術(shù)簡介
-
Transformers 原生支持的大模型量化算法
-
實(shí)戰(zhàn) Facebook OPT 模型量化
第九章:GLM 大模型家族與 ChatGLM3-6B 微調(diào)入門
-
智譜 GLM 大模型家族聯(lián)網(wǎng)檢索能力 WebGLM 初探多模態(tài) VisualGLM-6B 多模態(tài)預(yù)訓(xùn)練模型 CogVLM 代碼生成模型 CodeGeex2
-
ChatGLM3-6B 微調(diào)入門
-
實(shí)戰(zhàn) QLoRA 微調(diào) ChatGLM3-6B
第十章:實(shí)戰(zhàn)私有數(shù)據(jù)微調(diào) ChatGLM3
-
實(shí)戰(zhàn)構(gòu)造私有的微調(diào)數(shù)據(jù)集
-
實(shí)戰(zhàn)私有數(shù)據(jù)微調(diào) ChatGLM3
第十一章:ChatGPT 大模型訓(xùn)練技術(shù) RLHF
-
ChatGPT 大模型訓(xùn)練核心技術(shù)
-
基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)技術(shù)詳解
-
基于 AI 反饋的強(qiáng)化學(xué)習(xí)(RLAIF)技術(shù)
第十二章:混合專家模型(MoEs)技術(shù)揭秘
-
混合專家模型(Mixture-of-Experts, MoEs)技術(shù)發(fā)展簡史
-
MoEs 與 大模型結(jié)合后的技術(shù)發(fā)展
-
MoEs 實(shí)例研究:Mixtral-8x7B-v0.1(Mistral AI, 2023)
第十三章:Meta AI 大模型 LLaMA
-
Meta LLaMA 1 大模型技術(shù)解讀
-
Meta LLaMA 2 大模型技術(shù)解讀
第十四章:實(shí)戰(zhàn) LLaMA2-7B 指令微調(diào)
-
大模型訓(xùn)練技術(shù)總結(jié)
-
實(shí)戰(zhàn) LLaMA2-7B 指令微調(diào)
第十五章:大模型分布式訓(xùn)練框架 Microsoft DeepSpeed
-
大模型分布式訓(xùn)練框架 DeepSpeed
-
DeepSpeed 實(shí)戰(zhàn)
-
DeepSpeed 創(chuàng)新模塊:Inference、Compression & Science
第十六章:國產(chǎn)化適配-基于華為昇騰 910 微調(diào) ChatGLM-6B
-
大模型算力設(shè)備與生態(tài)總結(jié)
-
華為昇騰全棧 AI 軟硬件平臺介紹
-
實(shí)戰(zhàn):華為 Ascend 910B 微調(diào) ChatGLM-6B 模型
- 智譜 AI GLM 篇
-
- GLM 大模型家族介紹
- GLM 模型部署微調(diào)實(shí)踐
- CogVLM 模型部署實(shí)踐
GLM 大模型家族介紹
-
GLM 系列模型發(fā)展歷程:從 GLM-10B 到 GLM-4
-
GLM-4V:VisualGLM、CogVLM、CogAgent、GLM-4V 的技術(shù)變化
-
代碼生成模型:CodeGeeX-3 及插件應(yīng)用
-
圖像生成模型 CogView-3
-
超擬人大模型 CharacterGLM
-
GLM-4 All Tools
GLM 模型部署微調(diào)實(shí)踐
-
ChatGLM3-6B 開源介紹
-
ChatGLM3-6B 快速上手
-
模型微調(diào)
CogVLM 模型部署實(shí)踐
-
CogVLM 開源模型介紹和體驗(yàn)
-
CogVLM 開源模型部署
強(qiáng)強(qiáng)聯(lián)合,AI 領(lǐng)域知名技術(shù)專家團(tuán)隊(duì)手把手教學(xué)
好口碑看得見
全方位學(xué)習(xí)服務(wù),讓你學(xué)會并學(xué)有所成
適學(xué)人群