PaperAgent 2024年07月17日
大模型技术革新:一文掌握大模型微调与量化的关键技术
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

贪心科技联合数位业内顶级专家共同打造了《大模型微调实战营-算法篇》+《大模型高级研修班》的组合学习路径,旨在帮助算法工程师快速适应大模型时代的发展,掌握从基础到最前沿的大模型技术以及背后的精髓,提升技术竞争力。课程内容涵盖大模型基础、微调算法、推理方法、多模态技术、图算法和大模型的结合等,并深入讲解每种前沿算法背后的理论知识、应用场景,以及实战案例。

🤔 **课程内容覆盖面广:** 从大模型基础、微调算法、推理方法、多模态技术、图算法和大模型的结合等多个方面进行讲解,帮助学员全面掌握大模型技术体系。

💡 **理论与实践相结合:** 课程不仅讲解每种前沿算法背后的理论知识,还通过代码解读、从零算法实现、实战案例等方式,帮助学员将理论知识应用到实际项目中。

🚀 **紧贴技术发展趋势:** 课程内容紧密贴合LLM前沿技术发展,涵盖2024上半年新出现的最热门大模型技术,帮助学员快速掌握最新技术。

💪 **实战项目训练:** 课程设置了多个实战项目,例如Alpaca微调大模型、Vicuna微调大模型、RLHF医疗大模型微调项目等,帮助学员巩固所学知识,提升实战能力。

2024-07-17 11:35 湖北

随着大模型的飞速发展,在短短一年半间就有了大幅度的技术迭代更新,LoRA,QLoRA,AdaLoRa,ZeroQuant,Flash Attention,DPO等技术效果已经在工业界逐渐得到验证。过去半年又涌现出更多效果更好的技术和模型,Mamba2Jamaba,TTT基座模型DoraLoftQGaLore等最新的微调技术;KTOIPOSimPO等对齐技术;再到GPTQSmoothQuantAWQGGUF等量化技术。大模型全链路的技术的迭代日新月异。

作为算法工程师,面对如此庞大又在飞速迭代的大模型技术体系,您是否有感觉自己的技术能力以及学习步伐有点跟不上技术的发展?或者对这些新兴技术的理解仅仅停留在应用层面上,实际上并没有对背后的算法原理深入剖析过? 如果您希望快速适应大模型时代的发展,而不致于在海量的论文和技术文献中挣扎和迷茫;如果你希望在大模型赛道上持续巩固竞争壁垒,而不至于因为技术到达瓶颈而导致项目停滞不前。对技术本身的深入理解、对前沿技术的深入洞察一定是个必选项

基于此类痛点,并紧密贴合llm前沿技术发展,贪心科技联合数位业内顶级专家共同打造了《大模型微调实战营-算法篇》+《大模型高级研修班》的组合学习路径通过3个半月的时间,全面掌握从基础到最前沿的大模型技术以及背后的精髓,帮大家大大节省学习成本、提高技术竞争力

学习收获:

下面是两门课程的具体学习安排,感兴趣的朋友们欢迎扫码咨询。  

扫描二维码,添加顾问老师咨询~




大模型微调实战营-算法篇


第一阶段:大模型基础

第一章:开营典礼

第二章:大模型是怎么炼成的

第三章:Transformer模型原理剖析(1)

第四章:Transformer模型原理剖析(2)

第五章:Transformer模型原理剖析(3)

第六章:Transformer模型全量微调和高效微调

第七章:【项目实战1】大模型PEFT微调项目

第八章:GPT模型家族剖析

第九章:LLaMA家族模型剖析

第十章:ChatGLM家族模型剖析

第十一章:Baichuan家族模型剖析


第二阶段:大模型指令微调之- LoRA

第十二章:指令微调基础

第十三章:必要矩阵知识

第十四章:LoRA算法剖析

第十五章:指令数据搜集和生成

第十六章:【项目实战2】Alpaca微调大模型

第十七章:AdaLoRA算法剖析

第十八章:【项目实战3】Vicuna微调大模型


第三阶段:大模型指令微调之- Quantization

第十九章:模型Quantization基础

第二十章:QLoRA算法剖析

第二十一章:【项目实战4】QLoRA微调LLaMA大模型

第二十二章:模型Compression技术

第二十三章:模型蒸馏技术探索

第二十四章:ZeroQuant算法剖析

第二十五章:SmoothQuant算法剖析


第四阶段:大模型对齐之-RLHF

第二十六章:RLHF算法概述

第二十七章:人类反馈的集成

第二十八章:PPO算法概述

第二十九章:强化学习和数据基础

第三十章:策略优化基础

第三十一章:PPO核心技术细节

第三十二章:基于开源大模型从零实现PPO算法

第三十三章:高级PPO技术和强化学习进阶

第三十四章:【项目实战5】RLHF医疗大模型微调


第五阶段:大模型对齐之-DPO

第三十五章:DPO算法概述

第三十六章:排序和偏好的基础

第三十七章:DPO核心技术细节

第三十八章:DPO算法的从零实现

第三十九章:【项目实战6】DPO在推荐系统中的应用

第四十章:高级DPO技术


第六阶段:大模型其他微调技术

第四十一章:Prefix Tuning算法剖析

第四十二章:Adaptor Tuning算法剖析

第四十三章:Flash Attention算法剖析

第四十四章:Flash Attention 2算法剖析

第四十五章:Kahneman-Tversky Optimization (KTO) 算法剖析

第四十六章:【项目实战7】QLoRA+Flash Attention微调大模型


第七阶段:大模型增量学习

第四十七章:大模型增量学习概述

第四十八章:增量学习与灾难性遗忘

第四十九章:增量学习中的高级主题


类别

说明

程形式

线上直播+课程学习群答疑

课程安排

13次直播授课

每周1次,每次3-3.5小时

课程服务

25人以内学习群,助教答疑

专属咨询顾问与班主任老师全程伴学

全程直播讲解与演示

可反复观看课程视频




大模型高级研修班


模块一:基座模型

1、Transformer架构与机制

2、大模型训练与优化

3、Mamba介绍

4、Mamba核心组建与优化

5、Mamba2

6、Mamba的应用

7、Jamba模型

8、KANs

模块二:指令微调技术

9、LoRA微调技术

10、DoRA微调技术

11、LoftQ微调技术

12、GaLore微调技术

13、Mixture of LoRAs


模块三:对齐技术

14、DPO对齐技术

15、KTO对齐技术

16、IPO对齐技术

17、SimPO对齐技术


模块四:模型量化技术

18、GPTQ量化技术

19、SmoothQuant量化技术

20、AWQ量化技术

21、GGUF量化技术


模块五:多模态技术

22、MoE-LLaVA

23、Mini-Gemini

24、VideoLLaMA2


模块六:图与大模型

25、图与大模型基础

26、推荐系统与大模型

27、GraphGPT: Graph的指令微调

28、知识图谱与LLM的结合


模块七:具身智能

29、具身AI简介

30、大型语言模型、感知器

31、具身AI系统设计

32、评估与测试


类别

说明

程形式

线上直播+课程学习群答疑

课程安排

9次直播授课

每周1次,每次3-3.5小时

课程服务

30人以内学习群,助教答疑

专属咨询顾问与班主任老师全程伴学

全程直播讲解与演示

可反复观看课程视频




课程PPT举例


项目实战举例


课程学习群答疑举例




课程主讲



张老师

人工智能、大模型领域专家



李文哲

贪心科技创始人兼CEO

人工智能、大模型领域专家



Max老师

大模型专家




Shine老师

大模型开发与微调领域专家



报名咨询


扫描二维码,添加顾问老师咨询~

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型 微调 算法 实战 培训
相关文章