之前买过0期的可以半价升级
极客时间 AI大模型微调训练营全新升级第5期视频教程,由优库it资源网整理发布。本课系统讲解主流大模型微调技术方法,提升LLM 应用性能,多角度实战,掌握大模型微调利器,全面掌握微调核心技能。
极客时间-AI 大模型应用开发实战营 | 全新升级第5期
极客时间-企业级Agents开发实战营
LLM应用开发平台特训营
理论与实践相结合,深入掌握大模型微调(Fine- -tuning)技术
大模型微调技术揭秘: Adapter Tuning, Prompt Tuning, Prefix Tuning, P-Tuning, LoRA, AdaLoRA, QL oRA
熟练掌握Hugging Face Transformers & PEFT, Microsoft Deepspeed等微调工具库
基于国产硬件(华为异腾910)和大模型(ChatGLM- -6B)进行微调技术实践
.
├── 第1章/
│ ├── [8.1M] 1. 章节介绍
│ ├── [ 62M] 2. AI技术浪潮:弱人工智能、机器学习、深度学习、大语言模型
│ ├── [ 96M] 3. AI应用浪潮:高校共识、硅谷创新、中美博弈
│ ├── [ 12M] 4. 把握浪潮:AI 大模型助力超级个体和小团队
│ ├── [ 59M] 5. AI大模型四阶技术总览:提示工程(Prompt Engineering)
│ ├── [ 49M] 6. AI大模型四阶技术总览:AI智能体(Agents)
│ ├── [ 42M] 7. AI大模型四阶技术总览:大模型微调(Fine-tuning)
│ └── 课件/
│ └── [ 26M] 1-AI大模型四阶技术总览.pdf
├── 第2章/
│ ├── [ 35M] 1. 章节介绍
│ ├── [ 47M] 2. 统计语言模型
│ ├── [ 74M] 3. 神经网络语言模型
│ ├── [ 47M] 4. 大语言模型:注意力机制
│ ├── [ 59M] 5. 大语言模型:Transformer网络架构
│ ├── [ 50M] 6. 大语言模型:GPT-1与BERT
│ ├── [ 42M] 7. 大语言模型:暴力美学GPT系列模型
│ └── 课件/
│ ├── [ 22M] 2-大语言模型技术发展与演进.pdf
│ ├── [ 66] 代码链接地址.txt
│ └── [10.0M] 论文.zip
├── 第3章/
│ ├── [2.6M] 1. 章节介绍
│ ├── [ 29M] 2. Hugging Face Transformers快速入门
│ ├── [ 47M] 3. Transformers核心功能模块
│ ├── [ 28M] 4. 大模型开发环境搭建
│ ├── [142M] 5. 实战Hugging Face Transformers工具库
│ ├── [ 281] 6.作业.txt
│ └── 课件/
│ └── [6.0M] 5-大模型开发工具库 HF Transformers.pdf
├── 第4章/
│ ├── [5.2M] 1. 章节介绍
│ ├── [ 49M] 2. 数据集处理库Hugging Face Datasets
│ ├── [ 22M] 3. Transformers模型训练入门
│ ├── [ 94M] 4. 实战训练BERT模型:文本分类任务
│ ├── [205M] 5. 实战训练BERT模型:QA任务
│ ├── [ 385] 6.作业.txt
│ └── 课件/
│ └── [6.5M] 4-实战Transformers模型训练.pdf
├── 第5章/
│ ├── [6.9M] 1. 章节介绍
│ ├── [ 52M] 2. Before PEFT:Hard Prompt Full Fine-tune
│ ├── [ 23M] 3. PEFT主流技术分类介绍
│ ├── [ 58M] 4. PEFT - Adapter技术
│ ├── [ 81M] 5. PEFT - Soft Prompt 技术(Task-specific Tuning)
│ ├── [ 62M] 6. PEFT - Soft Prompt 技术(Prompt Encoder)
│ └── 课件/
│ ├── [ 12M] 5-大模型高效微调技术揭秘(上).pdf
│ ├── [ 17M] Fine-tuning论文.zip
│ └── [1.2M] Instruction-Tuning论文.zip
├── 第6章/
│ ├── [3.7M] 1. 章节介绍
│ ├── [ 56M] 2. LoRA低秩适配微调技术
│ ├── [ 56M] 3. AdaLoRA自适应权重矩阵微调技术
│ ├── [ 47M] 4. QLoRA量化低秩适配微调技术
│ ├── [ 19M] 5. UniPELT:大模型PEFT统一框架
│ ├── [ 29M] 6. (IA)3:极简主义增量训练方法
│ └── 课件/
│ └── [ 10M] 6-大模型高效微调技术揭秘(下).pdf
├── 第7章/
│ ├── [3.2M] 1. 章节介绍
│ ├── [ 59M] 2. Hugging Face PEFT 快速入门
│ ├── [ 28M] 3. OpenAI Whisper 模型介绍
│ ├── [159M] 4. 实战 LoRA 微调 Whisper-Large-v2 中文语音识别
│ ├── [ 556] 5.作业.txt
│ └── 课件/
│ └── [6.4M] 7-大模型高效微调工具HF PEFT 入门与实战.pdf
├── 第8章/
│ ├── [2.7M] 1. 章节介绍
│ ├── [ 36M] 2. 模型显存占用与量化技术简介
│ ├── [ 64M] 3. GPTQ:专为 GPT 设计的模型量化算法
│ ├── [ 49M] 4. AWQ:激活感知权重量化算法
│ ├── [ 16M] 5. BitsAndBytes(BnB) :模型量化软件包
│ ├── [ 59M] 6. 实战 Facebook OPT 模型量化
│ ├── [ 474] 7.作业.txt
│ └── 课件/
│ ├── [7.8M] 8-大模型量化技术入门与实战.pdf
│ └── [5.6M] Quantization论文.zip
├── 第9章/
│ ├── [4.7M] 1. 章节介绍
│ ├── [ 93M] 2. 基座模型 GLM-130B
│ ├── [ 37M] 3. 扩展模型:联网检索、多模态、代码生成
│ ├── [ 11M] 4. 对话模型 ChatGLM 系列
│ ├── [ 19M] 5. ChatGLM3-6B 微调入门
│ ├── [ 67M] 6. 实战 QLoRA 微调 ChatGLM3-6B
│ ├── [ 179] 7.作业.txt
│ └── 课件/
│ ├── [ 18M] 9-GLM 大模型家族与ChatGLM3-6B微调入门.pdf
│ └── [ 44M] GLM论文.zip
├── 第10章/
│ ├── [9.1M] 1. 章节介绍
│ ├── [ 55M] 2. 使用 ChatGPT 自动设计生成训练数据的 Prompt
│ ├── [ 12M] 3. 合成数据: LangChain + GPT-3.5 Turbo
│ ├── [ 14M] 4. 数据增强:提升训练数据多样性
│ ├── [ 30M] 5. 提示工程:保持批量生成数据稳定性
│ ├── [ 78M] 6. 实战私有数据微调 ChatGLM3
│ ├── [ 182] 7.作业.txt
│ └── 课件/
│ └── [ 12M] 10-实战私有数据微调ChatGLM3.pdf
├── 第11章/
│ ├── [ 13M] 1. 章节介绍
│ ├── [ 93M] 2. ChatGPT 大模型训练核心技术
│ ├── [ 89M] 3. 基于人类反馈的强化学习(RLHF)技术详解
│ ├── [ 18M] 4. 基于 AI 反馈的强化学习(RLAIF)技术
│ └── 课件/
│ ├── [8.7M] 11-ChatGPT大模型训练技术RLHF.pdf
│ └── [6.1M] RLHF论文.zip
├── 第12章/
│ ├── [7.0M] 1. 章节介绍
│ ├── [102M] 2. MoEs 技术发展简史
│ ├── [ 98M] 3. MoEs 与大模型结合后的技术发展
│ ├── [ 24M] 4. MoEs 实例研究:Mixtral-8x7B
│ └── 课件/
│ ├── [6.7M] 12-混合专家模型(MoEs)技术揭秘.pdf
│ └── [7.7M] MoEs论文.zip
├── 第13章/
│ ├── [5.6M] 1. 章节介绍
│ ├── [105M] 2. LLaMA 1 大模型技术解读
│ ├── [ 84M] 3. LLaMA 1 衍生模型大家族
│ ├── [ 28M] 4. LLaMA 2 大模型技术解读
│ ├── 【认准一手完整 www.ukoou.com】
│ ├── [ 12M] 5. 申请和获取 LLaMA 2 模型预训练权重
│ └── 课件/
│ ├── [ 11M] 13-Meta AI 大模型 LLaMA.pdf
│ └── [ 15M] LLaMA论文.zip
├── 第14章/
│ ├── [ 11M] 1. 章节介绍
│ ├── [124M] 2. 大模型训练技术总结
│ ├── [ 68M] 3. LLaMA2-7B 指令微调上手实战
│ ├── [ 19M] 4. 再谈中文指令微调方法
│ └── 课件/
│ └── [5.0M] 14-实战LLaMA2-7B指令微调.pdf
├── 第15章/
│ ├── [5.2M] 1. 章节介绍
│ ├── [ 50M] 2. 预训练模型显存计算方法
│ ├── [ 61M] 3. Zero Redundancy Optimizer ZeRO技术详解
│ ├── [ 56M] 4. Microsoft DeepSpeed 框架和核心技术
│ ├── [ 17M] 5. 分布式模型训练并行化技术对比
│ ├── [10.0M] 6. DeepSpeed 与 Transformers 集成训练大模型
│ ├── [ 55M] 7. DeepSpeed 框架编译与安装
│ ├── [ 52M] 8. DeepSpeed ZeRO 配置详解
│ ├── [8.8M] 9. 使用 DeepSpeed 单机多卡、分布式训练
│ ├── [ 34M] 10. 实战 DeepSpeed ZeRO-2 和 ZeRO-3 单机单卡训练
│ ├── [6.2M] 11. DeepSpeed 创新模块 Inference Compression Science
│ └── 课件/
│ └── [ 11M] 15-大模型分布式训练框架Microsoft DeepSpeed.pdf
├── 第16章/
│ ├── [6.0M] 1. 章节介绍
│ ├── [101M] 2. 蓝色星球的算力霸主:NVIDIA
│ ├── [ 18M] 3. 厚积薄发的江湖大佬:Google
│ ├── [ 17M] 4. 努力追赶的国产新秀:华为
│ ├── [ 22M] 5. 华为昇腾全栈 AI 软硬件平台介绍
│ ├── [ 45M] 6. 实战:华为 Ascend 910B 微调 ChatGLM 6B 模型
│ └── 课件/
│ └── [ 12M] 16-国产化实战:基于华为 Ascend 910 微调 ChatGLM-6B.pdf
└── 第17章 智谱章节/
├── [ 57M] 1. GLM 大模型家族介绍
├── [8.8M] 1.GLM大模型家族介绍.pdf
├── [ 95M] 2. GLM 模型部署微调实践
├── [4.3M] 2.GLM模型部署实践.pdf
├── [ 60M] 3. CogVLM模型部署实践
├── [4.0M] 3.CogVLM模型部署实践.pdf
├── [7.4M] 4. 选学 智谱第四代 API 介绍
├── [3.3M] 4.选学 GLM4 GLM4V API 调用实践.pdf
├── [ 436] 5. 选学 API 基础教学和实战-问题解决方案.txt
├── [ 42M] 5. 选学 API 基础教学和实战
└── [ 56M] 6. 使用 GLM-4 API 构建模型和应用
└── 赠送资料/
├── AI资料合集赠送/
├── InfoQ2023年研究报告/