第一章、ChatGPT-4o进阶
1、基于思维链(Chain of Thought)公式的提示词优化(思维链的概念、提示词优化策略与技巧)
2、利用思维链方法优化提示词,提升对话质量
3、GPTs逆向工程:提示词破解(提示词逆向工程的基本原理、分析和破解提示词的方法)
4、对常见GPTs提示词进行逆向工程
5、提示词保护策略以及防止提示词被破解的方法
6、构建坚不可摧的GPTs:设计一个安全的提示词
7、GPT API接口调用与完整项目开发(对话机器人、文本嵌入提取特征)
8、案例
第二章、大语言模型原理
1、注意力机制(基本概念、Self-Attention与Multi-Head Attention)
2、实现一个简单的注意力机制模型
3、Transformer模型架构
4、Transformer模型在NLP和CV中的应用
5、BERT模型简介(拓扑结构、训练过程、使用BERT进行文本分类)
6、GPT模型工作原理简介及演化过程(拓扑结构、训练过程、使用GPT进行文本生成)
7、向量数据库简介与向量检索技术详解(使用向量数据库进行快速检索)
8、文本嵌入(Text Embedding)技术概述(常用的文本嵌入模型、使用GPT API)
9、案例
第三章、大语言模型优化
1、检索增强生成(RAG)技术详解(RAG的基本原理、RAG在大语言模型中的作用和优势、RAG的系统架构、RAG检索结果与生成结果相结合的方法、RAG知识库的构建方法)
2、基于RAG的问答系统设计
3、微调(Fine-Tuning)技术(微调的基本原理、微调在大语言模型中的作用、准备一个用于微调的数据集、常见的微调方法,如PEFT、LoRA等、不同任务的微调策略、微调过程中的常见问题与解决方案)
4、微调一个预训练的GPT模型
5、量化技术(量化的基本概念、量化在模型优化中的重要性、量化的不同方法,如:静态量化、动态量化、混合量化等、量化处理的步骤)
6、案例
第四章、开源大语言模型及本地部署
1、开源大语言模型简介(开源大语言模型的基本概念、开源大语言模型与闭源大语言模型的对比)
2、源大语言模型(Llama3、Mistral、Phi3、Qwen2等)下载与使用
3、使用Docker部署开源大语言模型(Docker的基本概念、Docker的核心组件与功能、Docker的安装与配置、在Docker中部署Llama3等开源大语言模型)
4、使用Open-WebUI构建Web可视化交互(类似ChatGPT)的开源大语言模型对话系统(Open-WebUI的基本概念与功能、Open-WebUI的下载与安装、配置一个用于对话系统的Open-WebUI)
5、案例
第五章、从0到1搭建第一个大语言模型
1、数据集构建(数据集的收集与处理、从互联网上收集文本数据、数据清洗与标注、常用的数据集格式,如:CSV、JSON、TXT等)
2、大语言预训练模型的选择(预训练模型的优势、常见的预训练模型,如:GPT、BERT等、从Hugging Face等平台下载预训练模型)
3、大语言模型的训练(模型训练的基本步骤、训练过程中的监控与调试)
4、大语言模型的优化(常见训练参数,如:学习率、批次大小等、参数调整与优化技巧、优化训练参数以提高模型性能)
5、大语言模型的推理(模型推理与模型训练的区别、提高推理速度的技巧、从输入到输出的完整推理流程)
6、大语言模型的部署与应用(模型部署的基本流程、部署环境的配置与管理)
第六章、智能体(Agent)构建
1、智能体(Agent)概述(什么是智能体?智能体的类型和应用场景、典型的智能体应用,如:Google Data Science Agent等)
2、构建智能体(Agent)的基本步骤
3、LangChain平台概述(什么是LangChain?LangChain的核心功能与特点、LangChain的核心组件)
4、使用LangChain构建Agent(LangChain的使用流程、LangChain的配置与管理)
5、Coze平台概述
6、使用Coze平台构建Agent
7、案例
第七章、大语言模型发展趋势
1、大语言模型发展趋势概述(大语言模型的发展历史回顾、当前大语言模型的热点技术、大语言模型的未来方向:更大规模、更高效率、更多模态)
2、多模态大语言模型简介(什么是多模态?多模态数据的常见种类、多模态在NLP和CV中的应用、多模态大语言模型的架构与组件)
3、多模态数据融合的常见方法(早期融合、晚期融合、联合嵌入等)
4、多模态特征提取与特征表示技术(图像特征、文本特征的联合表示)
5、多模态大语言模型的训练与优化(多模态数据的标注与处理、多模态模型的训练、多模态模型的性能优化)
6、Mixture of Experts(MoE)简介(什么是Mixture of Experts?MoE的工作原理、MoE模型的架构、Moe的训练与推理、在大语言模型中集成MoE技术)
7、案例
第八章、LlaVA多模态大语言模型
1、LLaVA的核心技术与工作原理(模型拓扑结构讲解)
2、LLaVA与其他多模态模型的区别(LLaVA模型的优势有哪些?)
3、LLaVA的架构与训练(LLaVA的多模态输入处理与特征表示、视觉编码器与语言模型的结合、LLaVA的训练数据与预训练过程)
4、LLaVA的典型应用场景(图像问答、图像生成与描述等)
5、案例
第九章、时间序列建模与预测的大语言模型
1、时间序列建模的大语言模型技术细节(基于Transformer的时间序列预测原理、自注意力机制、编码器-解码器结构、位置编码)
2、时间序列建模的大语言模型训练
3、Time-LLM模型详解(拓扑结构简介、重新编程时间序列输入、Prompt-as-Prefix (PaP)等)
4、基于TimeGPT的时间序列预测(TimeGPT工作原理详解、TimeGPT库的安装与使用)
5、案例
第十章、目标检测的大语言模型
1、基于大语言模型的目标检测的工作原理(输入图像的特征提取、文本嵌入的生成、视觉和语言特征的融合、目标检测与输出)
2、目标检测领域的大语言模型概述(Pix2Seq、Grounding DINO、Lenna等)
3、案例
第十一章、语义分割的大语言模型
1、基于大语言模型的语义分割的工作原理(图像特征提取、文本嵌入生成、跨模态融合、分割预测)
2、语义分割领域的大语言模型概述(ProLab、Segment Anything Model、CLIPSeg、Segment Everything Everywhere Model等)
3、案例
第十二章、总结
原文链接
版权归原作者 海边散步的蜗牛 所有, 如有侵权,请联系我们删除。