价格: 140 学币

分类: AIGC

发布时间: 2024-10-21 20:10:32

最近更新: 2024-10-21 20:10:32

优惠: 钻石SVIP购买此课享受8折优惠

网盘下载地址

之前买过0期的可以半价升级

课程介绍

极客时间 AI大模型微调训练营全新升级第5期视频教程,由优库it资源网整理发布。本课系统讲解主流大模型微调技术方法,提升LLM 应用性能,多角度实战,掌握大模型微调利器,全面掌握微调核心技能。

相关推荐

极客时间-AI 大模型应用开发实战营 | 全新升级第5期
极客时间-企业级Agents开发实战营
LLM应用开发平台特训营

课程特点

理论与实践相结合,深入掌握大模型微调(Fine- -tuning)技术
大模型微调技术揭秘: Adapter Tuning, Prompt Tuning, Prefix Tuning, P-Tuning, LoRA, AdaLoRA, QL oRA
熟练掌握Hugging Face Transformers & PEFT, Microsoft Deepspeed等微调工具库
基于国产硬件(华为异腾910)和大模型(ChatGLM- -6B)进行微调技术实践

资源目录

.
├── 第1章/
│   ├── [8.1M]  1. 章节介绍
│   ├── [ 62M]  2. AI技术浪潮:弱人工智能、机器学习、深度学习、大语言模型
│   ├── [ 96M]  3. AI应用浪潮:高校共识、硅谷创新、中美博弈
│   ├── [ 12M]  4. 把握浪潮:AI 大模型助力超级个体和小团队
│   ├── [ 59M]  5. AI大模型四阶技术总览:提示工程(Prompt Engineering)
│   ├── [ 49M]  6. AI大模型四阶技术总览:AI智能体(Agents)
│   ├── [ 42M]  7. AI大模型四阶技术总览:大模型微调(Fine-tuning)
│   └── 课件/
│       └── [ 26M]  1-AI大模型四阶技术总览.pdf
├── 第2章/
│   ├── [ 35M]  1. 章节介绍
│   ├── [ 47M]  2. 统计语言模型
│   ├── [ 74M]  3. 神经网络语言模型
│   ├── [ 47M]  4. 大语言模型:注意力机制
│   ├── [ 59M]  5. 大语言模型:Transformer网络架构
│   ├── [ 50M]  6. 大语言模型:GPT-1与BERT
│   ├── [ 42M]  7. 大语言模型:暴力美学GPT系列模型
│   └── 课件/
│       ├── [ 22M]  2-大语言模型技术发展与演进.pdf
│       ├── [  66]  代码链接地址.txt
│       └── [10.0M]  论文.zip
├── 第3章/
│   ├── [2.6M]  1. 章节介绍
│   ├── [ 29M]  2. Hugging Face Transformers快速入门
│   ├── [ 47M]  3. Transformers核心功能模块
│   ├── [ 28M]  4. 大模型开发环境搭建
│   ├── [142M]  5. 实战Hugging Face Transformers工具库
│   ├── [ 281]  6.作业.txt
│   └── 课件/
│       └── [6.0M]  5-大模型开发工具库 HF Transformers.pdf
├── 第4章/
│   ├── [5.2M]  1. 章节介绍
│   ├── [ 49M]  2. 数据集处理库Hugging Face Datasets
│   ├── [ 22M]  3. Transformers模型训练入门
│   ├── [ 94M]  4. 实战训练BERT模型:文本分类任务
│   ├── [205M]  5. 实战训练BERT模型:QA任务
│   ├── [ 385]  6.作业.txt
│   └── 课件/
│       └── [6.5M]  4-实战Transformers模型训练.pdf
├── 第5章/
│   ├── [6.9M]  1. 章节介绍
│   ├── [ 52M]  2. Before PEFT:Hard Prompt  Full Fine-tune
│   ├── [ 23M]  3. PEFT主流技术分类介绍
│   ├── [ 58M]  4. PEFT - Adapter技术
│   ├── [ 81M]  5. PEFT - Soft Prompt 技术(Task-specific Tuning)
│   ├── [ 62M]  6. PEFT - Soft Prompt 技术(Prompt Encoder)
│   └── 课件/
│       ├── [ 12M]  5-大模型高效微调技术揭秘(上).pdf
│       ├── [ 17M]  Fine-tuning论文.zip
│       └── [1.2M]  Instruction-Tuning论文.zip
├── 第6章/
│   ├── [3.7M]  1. 章节介绍
│   ├── [ 56M]  2. LoRA低秩适配微调技术
│   ├── [ 56M]  3. AdaLoRA自适应权重矩阵微调技术
│   ├── [ 47M]  4. QLoRA量化低秩适配微调技术
│   ├── [ 19M]  5. UniPELT:大模型PEFT统一框架
│   ├── [ 29M]  6. (IA)3:极简主义增量训练方法
│   └── 课件/
│       └── [ 10M]  6-大模型高效微调技术揭秘(下).pdf
├── 第7章/
│   ├── [3.2M]  1. 章节介绍
│   ├── [ 59M]  2. Hugging Face PEFT 快速入门
│   ├── [ 28M]  3. OpenAI Whisper 模型介绍
│   ├── [159M]  4. 实战 LoRA 微调 Whisper-Large-v2 中文语音识别
│   ├── [ 556]  5.作业.txt
│   └── 课件/
│       └── [6.4M]  7-大模型高效微调工具HF PEFT 入门与实战.pdf
├── 第8章/
│   ├── [2.7M]  1. 章节介绍
│   ├── [ 36M]  2. 模型显存占用与量化技术简介
│   ├── [ 64M]  3. GPTQ:专为 GPT 设计的模型量化算法
│   ├── [ 49M]  4. AWQ:激活感知权重量化算法
│   ├── [ 16M]  5. BitsAndBytes(BnB) :模型量化软件包
│   ├── [ 59M]  6. 实战 Facebook OPT 模型量化
│   ├── [ 474]  7.作业.txt
│   └── 课件/
│       ├── [7.8M]  8-大模型量化技术入门与实战.pdf
│       └── [5.6M]  Quantization论文.zip
├── 第9章/
│   ├── [4.7M]  1. 章节介绍
│   ├── [ 93M]  2. 基座模型 GLM-130B
│   ├── [ 37M]  3. 扩展模型:联网检索、多模态、代码生成
│   ├── [ 11M]  4. 对话模型 ChatGLM 系列
│   ├── [ 19M]  5. ChatGLM3-6B 微调入门
│   ├── [ 67M]  6. 实战 QLoRA 微调 ChatGLM3-6B
│   ├── [ 179]  7.作业.txt
│   └── 课件/
│       ├── [ 18M]  9-GLM 大模型家族与ChatGLM3-6B微调入门.pdf
│       └── [ 44M]  GLM论文.zip
├── 第10章/
│   ├── [9.1M]  1. 章节介绍
│   ├── [ 55M]  2. 使用 ChatGPT 自动设计生成训练数据的 Prompt
│   ├── [ 12M]  3. 合成数据: LangChain + GPT-3.5 Turbo
│   ├── [ 14M]  4. 数据增强:提升训练数据多样性
│   ├── [ 30M]  5. 提示工程:保持批量生成数据稳定性
│   ├── [ 78M]  6. 实战私有数据微调 ChatGLM3
│   ├── [ 182]  7.作业.txt
│   └── 课件/
│       └── [ 12M]  10-实战私有数据微调ChatGLM3.pdf
├── 第11章/
│   ├── [ 13M]  1. 章节介绍
│   ├── [ 93M]  2. ChatGPT 大模型训练核心技术
│   ├── [ 89M]  3. 基于人类反馈的强化学习(RLHF)技术详解
│   ├── [ 18M]  4. 基于 AI 反馈的强化学习(RLAIF)技术
│   └── 课件/
│       ├── [8.7M]  11-ChatGPT大模型训练技术RLHF.pdf
│       └── [6.1M]  RLHF论文.zip
├── 第12章/
│   ├── [7.0M]  1. 章节介绍
│   ├── [102M]  2. MoEs 技术发展简史
│   ├── [ 98M]  3. MoEs 与大模型结合后的技术发展
│   ├── [ 24M]  4. MoEs 实例研究:Mixtral-8x7B
│   └── 课件/
│       ├── [6.7M]  12-混合专家模型(MoEs)技术揭秘.pdf
│       └── [7.7M]  MoEs论文.zip
├── 第13章/
│   ├── [5.6M]  1. 章节介绍
│   ├── [105M]  2. LLaMA 1 大模型技术解读
│   ├── [ 84M]  3. LLaMA 1 衍生模型大家族
│   ├── [ 28M]  4. LLaMA 2 大模型技术解读
│   ├── 【认准一手完整 www.ukoou.com】
│   ├── [ 12M]  5. 申请和获取 LLaMA 2 模型预训练权重
│   └── 课件/
│       ├── [ 11M]  13-Meta AI 大模型 LLaMA.pdf
│       └── [ 15M]  LLaMA论文.zip
├── 第14章/
│   ├── [ 11M]  1. 章节介绍
│   ├── [124M]  2. 大模型训练技术总结
│   ├── [ 68M]  3. LLaMA2-7B 指令微调上手实战
│   ├── [ 19M]  4. 再谈中文指令微调方法
│   └── 课件/
│       └── [5.0M]  14-实战LLaMA2-7B指令微调.pdf
├── 第15章/
│   ├── [5.2M]  1. 章节介绍
│   ├── [ 50M]  2. 预训练模型显存计算方法
│   ├── [ 61M]  3. Zero Redundancy Optimizer  ZeRO技术详解
│   ├── [ 56M]  4. Microsoft DeepSpeed 框架和核心技术
│   ├── [ 17M]  5. 分布式模型训练并行化技术对比
│   ├── [10.0M]  6. DeepSpeed 与 Transformers 集成训练大模型
│   ├── [ 55M]  7. DeepSpeed 框架编译与安装
│   ├── [ 52M]  8. DeepSpeed ZeRO 配置详解
│   ├── [8.8M]  9. 使用 DeepSpeed 单机多卡、分布式训练
│   ├── [ 34M]  10. 实战 DeepSpeed ZeRO-2 和 ZeRO-3 单机单卡训练
│   ├── [6.2M]  11. DeepSpeed 创新模块 Inference Compression  Science
│   └── 课件/
│       └── [ 11M]  15-大模型分布式训练框架Microsoft DeepSpeed.pdf
├── 第16章/
│   ├── [6.0M]  1. 章节介绍
│   ├── [101M]  2. 蓝色星球的算力霸主:NVIDIA
│   ├── [ 18M]  3. 厚积薄发的江湖大佬:Google
│   ├── [ 17M]  4. 努力追赶的国产新秀:华为
│   ├── [ 22M]  5. 华为昇腾全栈 AI 软硬件平台介绍
│   ├── [ 45M]  6. 实战:华为 Ascend 910B 微调 ChatGLM 6B 模型
│   └── 课件/
│       └── [ 12M]  16-国产化实战:基于华为 Ascend 910 微调 ChatGLM-6B.pdf
└── 第17章 智谱章节/
    ├── [ 57M]  1. GLM 大模型家族介绍
    ├── [8.8M]  1.GLM大模型家族介绍.pdf
    ├── [ 95M]  2. GLM 模型部署微调实践
    ├── [4.3M]  2.GLM模型部署实践.pdf
    ├── [ 60M]  3. CogVLM模型部署实践
    ├── [4.0M]  3.CogVLM模型部署实践.pdf
    ├── [7.4M]  4. 选学 智谱第四代 API 介绍
    ├── [3.3M]  4.选学 GLM4 GLM4V API 调用实践.pdf
    ├── [ 436]  5. 选学 API 基础教学和实战-问题解决方案.txt
    ├── [ 42M]  5. 选学 API 基础教学和实战
    └── [ 56M]  6. 使用 GLM-4 API 构建模型和应用
└── 赠送资料/
    ├── AI资料合集赠送/
    ├── InfoQ2023年研究报告/