0


AI大模型探索之路-训练篇17:大语言模型预训练-微调技术之QLoRA

系列篇章💥

AI大模型探索之路-训练篇1:大语言模型微调基础认知
AI大模型探索之路-训练篇2:大语言模型预训练基础认知
AI大模型探索之路-训练篇3:大语言模型全景解读
AI大模型探索之路-训练篇4:大语言模型训练数据集概览
AI大模型探索之路-训练篇5:大语言模型预训练数据准备-词元化
AI大模型探索之路-训练篇6:大语言模型预训练数据准备-预处理
AI大模型探索之路-训练篇7:大语言模型Transformer库之HuggingFace介绍
AI大模型探索之路-训练篇8:大语言模型Transformer库-预训练流程编码体验
AI大模型探索之路-训练篇9:大语言模型Transformer库-Pipeline组件实践
AI大模型探索之路-训练篇10:大语言模型Transformer库-Tokenizer组件实践
AI大模型探索之路-训练篇11:大语言模型Transformer库-Model组件实践
AI大模型探索之路-训练篇12:语言模型Transformer库-Datasets组件实践
AI大模型探索之路-训练篇13:大语言模型Transformer库-Evaluate组件实践
AI大模型探索之路-训练篇14:大语言模型Transformer库-Trainer组件实践
AI大模型探索之路-训练篇15:大语言模型预训练之全量参数微调
AI大模型探索之路-训练篇16:大语言模型预训练-微调技术之LoRA


目录


前言

在深度学习的不断进步中,大型语言模型(LLMs)的预训练和微调技术成为了研究的热点。其中,量化技术以其在模型压缩和加速方面的潜力备受关注。本文将深入探讨QLoRA(Quantized Low-Rank Adaptation)技术的原理、实践及应用。

一、QLoRA 总体概述

QLoRA技术是一种创新的量化LoRA(Low-Rank Adaptation)的技术,旨在保持模型性能的同时,显著减少模型的内存占用。该技术的核心包括:
1)4bit NormalFloat(NF4): 这是针对正态分布权重设计的一种信息理论上最优的数据类型。相较于传统的4-bit整数和4-bit浮点数,NF4为正态分布数据提供了更优异的实证性能。
2)双量化:QLoRA采用一种独特的双重量化机制,对初次量化后的常量进行二次量化,进一步压缩存储空间。
3)分页优化器:使用NVIDIA统一内存特性,该特性可以在在GPU偶尔OOM的情况下,进行CPU和GPU之间自动分页到分页的传输,以实现无错误的 GPU 处理。该功能的工作方式类似于 CPU 内存和磁盘之间的常规内存分页。使用此功能为优化器状态(Optimizer)分配分页内存, 然后在 GPU 内存不足时将其自动卸载到 CPU 内存,并在优化器更新步骤需要时将其加载回 GPU 内存。
在这里插入图片描述

二、QLoRA原理解释(4-bit NormalFloat)

前面篇章中我们有介绍,通常为了减少GPU的使用,我们会对模型进行量化处理,减少资源的使用;int8、int4量化是一种有效的模型压缩技术,它通过减少数值的精度来换取计算效率的提升,同时尽量保持模型的准确性。
在这里插入图片描述

1)常规int8量化和反量化过程:
在这里插入图片描述

2)常规int4量化和反量化过程:
在这里插入图片描述

3)QLoRA的NF4量化
是一种特殊的4位浮点数(Normal Float 4-bit)量化方法。它不仅定义了一种新的数据类型,还采用了基于分块的分位数量化策略,这种方法能够更有效地保持数值的相对关系,并且减少了由于量化引入的误差。QLoRA的NF4量化通过双重量化进一步减小了缓存占用,并且结合低秩适配器(LoRA)进行模型微调,可以在有限的计算资源下达到较高的性能水平。
在这里插入图片描述

三、QLoRA代码实践

学术资源加速

方便从huggingface下载模型,这云平台autodl提供的,仅适用于autodl。

  1. import subprocess
  2. import os
  3. result = subprocess.run('bash -c "source /etc/network_turbo && env | grep proxy"', shell=True, capture_output=True, text=True)
  4. output = result.stdout
  5. for line in output.splitlines():if'='in line:
  6. var, value = line.split('=',1)
  7. os.environ[var]= value

步骤1 导入相关包

开始之前,我们需要导入适用于模型训练和推理的必要库,如transformers。

  1. from datasets import Dataset
  2. from transformers import AutoTokenizer, AutoModelForCausalLM, DataCollatorForSeq2Seq, TrainingArguments, Trainer

步骤2 加载数据集

使用适当的数据加载器,例如datasets库,来加载预处理过的指令遵循性任务数据集。

  1. ds = Dataset.load_from_disk("/root/tuning/lesson01/data/alpaca_data_zh/")
  2. ds

输出:

  1. Dataset({
  2. features:['output','input','instruction'],
  3. num_rows:26858})
  1. ds[:1]

输出

  1. {'output':['以下是保持健康的三个提示:\n\n1. 保持身体活动。每天做适当的身体运动,如散步、跑步或游泳,能促进心血管健康,增强肌肉力量,并有助于减少体重。\n\n2. 均衡饮食。每天食用新鲜的蔬菜、水果、全谷物和脂肪含量低的蛋白质食物,避免高糖、高脂肪和加工食品,以保持健康的饮食习惯。\n\n3. 睡眠充足。睡眠对人体健康至关重要,成年人每天应保证 7-8 小时的睡眠。良好的睡眠有助于减轻压力,促进身体恢复,并提高注意力和记忆力。'],'input':[''],'instruction':['保持健康的三个提示。']}

步骤3 数据集预处理

利用预训练模型的分词器(Tokenizer)对原始文本进行编码,并生成相应的输入ID、注意力掩码和标签。

1)获取分词器

  1. tokenizer = AutoTokenizer.from_pretrained("Langboat/bloom-1b4-zh")
  2. tokenizer

输出:

  1. BloomTokenizerFast(name_or_path='Langboat/bloom-1b4-zh', vocab_size=46145, model_max_length=1000000000000000019884624838656, is_fast=True, padding_side='left', truncation_side='right', special_tokens={'bos_token':'<s>','eos_token':'</s>','unk_token':'<unk>','pad_token':'<pad>'}, clean_up_tokenization_spaces=False)

2)定义数据处理函数

  1. defprocess_func(example):# 设置最大长度为256
  2. MAX_LENGTH =256# 初始化输入ID、注意力掩码和标签列表
  3. input_ids, attention_mask, labels =[],[],[]# 对指令和输入进行编码
  4. instruction = tokenizer("\n".join(["Human: "+ example["instruction"], example["input"]]).strip()+"\n\nAssistant: ")# 对输出进行编码,并添加结束符
  5. response = tokenizer(example["output"]+ tokenizer.eos_token)# 将指令和响应的输入ID拼接起来
  6. input_ids = instruction["input_ids"]+ response["input_ids"]# 将指令和响应的注意力掩码拼接起来
  7. attention_mask = instruction["attention_mask"]+ response["attention_mask"]# 将指令的标签设置为-100,表示不计算损失;将响应的输入ID作为标签
  8. labels =[-100]*len(instruction["input_ids"])+ response["input_ids"]# 如果输入ID的长度超过最大长度,截断输入ID、注意力掩码和标签iflen(input_ids)> MAX_LENGTH:
  9. input_ids = input_ids[:MAX_LENGTH]
  10. attention_mask = attention_mask[:MAX_LENGTH]
  11. labels = labels[:MAX_LENGTH]# 返回处理后的数据return{"input_ids": input_ids,"attention_mask": attention_mask,"labels": labels
  12. }

3)对数据进行预处理

  1. tokenized_ds = ds.map(process_func, remove_columns=ds.column_names)
  2. tokenized_ds

输出:

  1. Dataset({
  2. features:['input_ids','attention_mask','labels'],
  3. num_rows:26858})

步骤4 创建模型

然后,我们实例化一个预训练模型,这个模型将作为微调的基础。对于大型模型,我们可能还需要进行一些特定的配置,以适应可用的计算资源。(

  1. 在实例化时,指定量化参数

  1. import torch
  2. ##修改# low_cpu_mem_usage=True: 这个参数设定为True意味着在模型加载时会尽可能地减少CPU内存的使用。# torch_dtype=torch.half: 这个参数设置了模型中张量的数据类型为半精度浮点数,这可以减少内存占用和计算时间,但可能会牺牲一些精度。# device_map="auto": 这个参数设置了模型应该在哪个设备上运行。“auto”意味着它将自动选择可用的设备,优先选择GPU,如果没有GPU则选择CPU。# load_in_4bit=True: 这个参数设置为True意味着在模型加载时将使用4位量化,这可以进一步减少内存占用。# bnb_4bit_compute_dtype=torch.half: 这个参数设置了在4位量化时的计算数据类型,这里设置为半精度浮点数。# bnb_4bit_quant_type="nf4": 这个参数设置了4位量化的类型,"nf4"是一种特定的量化策略。# bnb_4bit_use_double_quant=True: 这个参数设置为True意味着在4位量化时使用双重量化。
  3. model = AutoModelForCausalLM.from_pretrained("Langboat/bloom-1b4-zh",
  4. torch_dtype=torch.half,
  5. low_cpu_mem_usage=True,
  6. device_map="auto",
  7. load_in_4bit=True,
  8. bnb_4bit_quant_type="nf4",
  9. bnb_4bit_use_double_quant=True)
  1. model.dtype

torch.float16

查看参数,查看模型有哪些层,可以用于添加LoRA旁路

  1. for name, parameter in model.named_parameters():print(name,parameter.dtype)

输出

  1. transformer.word_embeddings.weight torch.float16
  2. transformer.word_embeddings_layernorm.weight torch.float16
  3. transformer.word_embeddings_layernorm.bias torch.float16
  4. transformer.h.0.input_layernorm.weight torch.float16
  5. transformer.h.0.input_layernorm.bias torch.float16
  6. transformer.h.0.self_attention.query_key_value.weight torch.uint8
  7. transformer.h.0.self_attention.query_key_value.bias torch.float16
  8. transformer.h.0.self_attention.dense.weight torch.uint8
  9. transformer.h.0.self_attention.dense.bias torch.float16
  10. transformer.h.0.post_attention_layernorm.weight torch.float16
  11. transformer.h.0.post_attention_layernorm.bias torch.float16
  12. transformer.h.0.mlp.dense_h_to_4h.weight torch.uint8
  13. transformer.h.0.mlp.dense_h_to_4h.bias torch.float16
  14. transformer.h.0.mlp.dense_4h_to_h.weight torch.uint8
  15. transformer.h.0.mlp.dense_4h_to_h.bias torch.float16
  16. transformer.h.1.input_layernorm.weight torch.float16
  17. transformer.h.1.input_layernorm.bias torch.float16
  18. transformer.h.1.self_attention.query_key_value.weight torch.uint8
  19. transformer.h.1.self_attention.query_key_value.bias torch.float16
  20. transformer.h.1.self_attention.dense.weight torch.uint8
  21. transformer.h.1.self_attention.dense.bias torch.float16
  22. transformer.h.1.post_attention_layernorm.weight torch.float16
  23. transformer.h.1.post_attention_layernorm.bias torch.float16
  24. transformer.h.1.mlp.dense_h_to_4h.weight torch.uint8
  25. transformer.h.1.mlp.dense_h_to_4h.bias torch.float16
  26. transformer.h.1.mlp.dense_4h_to_h.weight torch.uint8
  27. transformer.h.1.mlp.dense_4h_to_h.bias torch.float16
  28. transformer.h.2.input_layernorm.weight torch.float16
  29. transformer.h.2.input_layernorm.bias torch.float16
  30. transformer.h.2.self_attention.query_key_value.weight torch.uint8
  31. transformer.h.2.self_attention.query_key_value.bias torch.float16
  32. transformer.h.2.self_attention.dense.weight torch.uint8
  33. transformer.h.2.self_attention.dense.bias torch.float16
  34. transformer.h.2.post_attention_layernorm.weight torch.float16
  35. transformer.h.2.post_attention_layernorm.bias torch.float16
  36. transformer.h.2.mlp.dense_h_to_4h.weight torch.uint8
  37. transformer.h.2.mlp.dense_h_to_4h.bias torch.float16
  38. transformer.h.2.mlp.dense_4h_to_h.weight torch.uint8
  39. transformer.h.2.mlp.dense_4h_to_h.bias torch.float16
  40. transformer.h.3.input_layernorm.weight torch.float16
  41. transformer.h.3.input_layernorm.bias torch.float16
  42. transformer.h.3.self_attention.query_key_value.weight torch.uint8
  43. transformer.h.3.self_attention.query_key_value.bias torch.float16
  44. transformer.h.3.self_attention.dense.weight torch.uint8
  45. transformer.h.3.self_attention.dense.bias torch.float16
  46. transformer.h.3.post_attention_layernorm.weight torch.float16
  47. transformer.h.3.post_attention_layernorm.bias torch.float16
  48. transformer.h.3.mlp.dense_h_to_4h.weight torch.uint8
  49. transformer.h.3.mlp.dense_h_to_4h.bias torch.float16
  50. transformer.h.3.mlp.dense_4h_to_h.weight torch.uint8
  51. transformer.h.3.mlp.dense_4h_to_h.bias torch.float16
  52. transformer.h.4.input_layernorm.weight torch.float16
  53. transformer.h.4.input_layernorm.bias torch.float16
  54. transformer.h.4.self_attention.query_key_value.weight torch.uint8
  55. transformer.h.4.self_attention.query_key_value.bias torch.float16
  56. transformer.h.4.self_attention.dense.weight torch.uint8
  57. transformer.h.4.self_attention.dense.bias torch.float16
  58. transformer.h.4.post_attention_layernorm.weight torch.float16
  59. transformer.h.4.post_attention_layernorm.bias torch.float16
  60. transformer.h.4.mlp.dense_h_to_4h.weight torch.uint8
  61. transformer.h.4.mlp.dense_h_to_4h.bias torch.float16
  62. transformer.h.4.mlp.dense_4h_to_h.weight torch.uint8
  63. transformer.h.4.mlp.dense_4h_to_h.bias torch.float16
  64. transformer.h.5.input_layernorm.weight torch.float16
  65. transformer.h.5.input_layernorm.bias torch.float16
  66. transformer.h.5.self_attention.query_key_value.weight torch.uint8
  67. transformer.h.5.self_attention.query_key_value.bias torch.float16
  68. transformer.h.5.self_attention.dense.weight torch.uint8
  69. transformer.h.5.self_attention.dense.bias torch.float16
  70. transformer.h.5.post_attention_layernorm.weight torch.float16
  71. transformer.h.5.post_attention_layernorm.bias torch.float16
  72. transformer.h.5.mlp.dense_h_to_4h.weight torch.uint8
  73. transformer.h.5.mlp.dense_h_to_4h.bias torch.float16
  74. transformer.h.5.mlp.dense_4h_to_h.weight torch.uint8
  75. transformer.h.5.mlp.dense_4h_to_h.bias torch.float16
  76. transformer.h.6.input_layernorm.weight torch.float16
  77. transformer.h.6.input_layernorm.bias torch.float16
  78. transformer.h.6.self_attention.query_key_value.weight torch.uint8
  79. transformer.h.6.self_attention.query_key_value.bias torch.float16
  80. transformer.h.6.self_attention.dense.weight torch.uint8
  81. transformer.h.6.self_attention.dense.bias torch.float16
  82. transformer.h.6.post_attention_layernorm.weight torch.float16
  83. transformer.h.6.post_attention_layernorm.bias torch.float16
  84. transformer.h.6.mlp.dense_h_to_4h.weight torch.uint8
  85. transformer.h.6.mlp.dense_h_to_4h.bias torch.float16
  86. transformer.h.6.mlp.dense_4h_to_h.weight torch.uint8
  87. transformer.h.6.mlp.dense_4h_to_h.bias torch.float16
  88. transformer.h.7.input_layernorm.weight torch.float16
  89. transformer.h.7.input_layernorm.bias torch.float16
  90. transformer.h.7.self_attention.query_key_value.weight torch.uint8
  91. transformer.h.7.self_attention.query_key_value.bias torch.float16
  92. transformer.h.7.self_attention.dense.weight torch.uint8
  93. transformer.h.7.self_attention.dense.bias torch.float16
  94. transformer.h.7.post_attention_layernorm.weight torch.float16
  95. transformer.h.7.post_attention_layernorm.bias torch.float16
  96. transformer.h.7.mlp.dense_h_to_4h.weight torch.uint8
  97. transformer.h.7.mlp.dense_h_to_4h.bias torch.float16
  98. transformer.h.7.mlp.dense_4h_to_h.weight torch.uint8
  99. transformer.h.7.mlp.dense_4h_to_h.bias torch.float16
  100. transformer.h.8.input_layernorm.weight torch.float16
  101. transformer.h.8.input_layernorm.bias torch.float16
  102. transformer.h.8.self_attention.query_key_value.weight torch.uint8
  103. transformer.h.8.self_attention.query_key_value.bias torch.float16
  104. transformer.h.8.self_attention.dense.weight torch.uint8
  105. transformer.h.8.self_attention.dense.bias torch.float16
  106. transformer.h.8.post_attention_layernorm.weight torch.float16
  107. transformer.h.8.post_attention_layernorm.bias torch.float16
  108. transformer.h.8.mlp.dense_h_to_4h.weight torch.uint8
  109. transformer.h.8.mlp.dense_h_to_4h.bias torch.float16
  110. transformer.h.8.mlp.dense_4h_to_h.weight torch.uint8
  111. transformer.h.8.mlp.dense_4h_to_h.bias torch.float16
  112. transformer.h.9.input_layernorm.weight torch.float16
  113. transformer.h.9.input_layernorm.bias torch.float16
  114. transformer.h.9.self_attention.query_key_value.weight torch.uint8
  115. transformer.h.9.self_attention.query_key_value.bias torch.float16
  116. transformer.h.9.self_attention.dense.weight torch.uint8
  117. transformer.h.9.self_attention.dense.bias torch.float16
  118. transformer.h.9.post_attention_layernorm.weight torch.float16
  119. transformer.h.9.post_attention_layernorm.bias torch.float16
  120. transformer.h.9.mlp.dense_h_to_4h.weight torch.uint8
  121. transformer.h.9.mlp.dense_h_to_4h.bias torch.float16
  122. transformer.h.9.mlp.dense_4h_to_h.weight torch.uint8
  123. transformer.h.9.mlp.dense_4h_to_h.bias torch.float16
  124. transformer.h.10.input_layernorm.weight torch.float16
  125. transformer.h.10.input_layernorm.bias torch.float16
  126. transformer.h.10.self_attention.query_key_value.weight torch.uint8
  127. transformer.h.10.self_attention.query_key_value.bias torch.float16
  128. transformer.h.10.self_attention.dense.weight torch.uint8
  129. transformer.h.10.self_attention.dense.bias torch.float16
  130. transformer.h.10.post_attention_layernorm.weight torch.float16
  131. transformer.h.10.post_attention_layernorm.bias torch.float16
  132. transformer.h.10.mlp.dense_h_to_4h.weight torch.uint8
  133. transformer.h.10.mlp.dense_h_to_4h.bias torch.float16
  134. transformer.h.10.mlp.dense_4h_to_h.weight torch.uint8
  135. transformer.h.10.mlp.dense_4h_to_h.bias torch.float16
  136. transformer.h.11.input_layernorm.weight torch.float16
  137. transformer.h.11.input_layernorm.bias torch.float16
  138. transformer.h.11.self_attention.query_key_value.weight torch.uint8
  139. transformer.h.11.self_attention.query_key_value.bias torch.float16
  140. transformer.h.11.self_attention.dense.weight torch.uint8
  141. transformer.h.11.self_attention.dense.bias torch.float16
  142. transformer.h.11.post_attention_layernorm.weight torch.float16
  143. transformer.h.11.post_attention_layernorm.bias torch.float16
  144. transformer.h.11.mlp.dense_h_to_4h.weight torch.uint8
  145. transformer.h.11.mlp.dense_h_to_4h.bias torch.float16
  146. transformer.h.11.mlp.dense_4h_to_h.weight torch.uint8
  147. transformer.h.11.mlp.dense_4h_to_h.bias torch.float16
  148. transformer.h.12.input_layernorm.weight torch.float16
  149. transformer.h.12.input_layernorm.bias torch.float16
  150. transformer.h.12.self_attention.query_key_value.weight torch.uint8
  151. transformer.h.12.self_attention.query_key_value.bias torch.float16
  152. transformer.h.12.self_attention.dense.weight torch.uint8
  153. transformer.h.12.self_attention.dense.bias torch.float16
  154. transformer.h.12.post_attention_layernorm.weight torch.float16
  155. transformer.h.12.post_attention_layernorm.bias torch.float16
  156. transformer.h.12.mlp.dense_h_to_4h.weight torch.uint8
  157. transformer.h.12.mlp.dense_h_to_4h.bias torch.float16
  158. transformer.h.12.mlp.dense_4h_to_h.weight torch.uint8
  159. transformer.h.12.mlp.dense_4h_to_h.bias torch.float16
  160. transformer.h.13.input_layernorm.weight torch.float16
  161. transformer.h.13.input_layernorm.bias torch.float16
  162. transformer.h.13.self_attention.query_key_value.weight torch.uint8
  163. transformer.h.13.self_attention.query_key_value.bias torch.float16
  164. transformer.h.13.self_attention.dense.weight torch.uint8
  165. transformer.h.13.self_attention.dense.bias torch.float16
  166. transformer.h.13.post_attention_layernorm.weight torch.float16
  167. transformer.h.13.post_attention_layernorm.bias torch.float16
  168. transformer.h.13.mlp.dense_h_to_4h.weight torch.uint8
  169. transformer.h.13.mlp.dense_h_to_4h.bias torch.float16
  170. transformer.h.13.mlp.dense_4h_to_h.weight torch.uint8
  171. transformer.h.13.mlp.dense_4h_to_h.bias torch.float16
  172. transformer.h.14.input_layernorm.weight torch.float16
  173. transformer.h.14.input_layernorm.bias torch.float16
  174. transformer.h.14.self_attention.query_key_value.weight torch.uint8
  175. transformer.h.14.self_attention.query_key_value.bias torch.float16
  176. transformer.h.14.self_attention.dense.weight torch.uint8
  177. transformer.h.14.self_attention.dense.bias torch.float16
  178. transformer.h.14.post_attention_layernorm.weight torch.float16
  179. transformer.h.14.post_attention_layernorm.bias torch.float16
  180. transformer.h.14.mlp.dense_h_to_4h.weight torch.uint8
  181. transformer.h.14.mlp.dense_h_to_4h.bias torch.float16
  182. transformer.h.14.mlp.dense_4h_to_h.weight torch.uint8
  183. transformer.h.14.mlp.dense_4h_to_h.bias torch.float16
  184. transformer.h.15.input_layernorm.weight torch.float16
  185. transformer.h.15.input_layernorm.bias torch.float16
  186. transformer.h.15.self_attention.query_key_value.weight torch.uint8
  187. transformer.h.15.self_attention.query_key_value.bias torch.float16
  188. transformer.h.15.self_attention.dense.weight torch.uint8
  189. transformer.h.15.self_attention.dense.bias torch.float16
  190. transformer.h.15.post_attention_layernorm.weight torch.float16
  191. transformer.h.15.post_attention_layernorm.bias torch.float16
  192. transformer.h.15.mlp.dense_h_to_4h.weight torch.uint8
  193. transformer.h.15.mlp.dense_h_to_4h.bias torch.float16
  194. transformer.h.15.mlp.dense_4h_to_h.weight torch.uint8
  195. transformer.h.15.mlp.dense_4h_to_h.bias torch.float16
  196. transformer.h.16.input_layernorm.weight torch.float16
  197. transformer.h.16.input_layernorm.bias torch.float16
  198. transformer.h.16.self_attention.query_key_value.weight torch.uint8
  199. transformer.h.16.self_attention.query_key_value.bias torch.float16
  200. transformer.h.16.self_attention.dense.weight torch.uint8
  201. transformer.h.16.self_attention.dense.bias torch.float16
  202. transformer.h.16.post_attention_layernorm.weight torch.float16
  203. transformer.h.16.post_attention_layernorm.bias torch.float16
  204. transformer.h.16.mlp.dense_h_to_4h.weight torch.uint8
  205. transformer.h.16.mlp.dense_h_to_4h.bias torch.float16
  206. transformer.h.16.mlp.dense_4h_to_h.weight torch.uint8
  207. transformer.h.16.mlp.dense_4h_to_h.bias torch.float16
  208. transformer.h.17.input_layernorm.weight torch.float16
  209. transformer.h.17.input_layernorm.bias torch.float16
  210. transformer.h.17.self_attention.query_key_value.weight torch.uint8
  211. transformer.h.17.self_attention.query_key_value.bias torch.float16
  212. transformer.h.17.self_attention.dense.weight torch.uint8
  213. transformer.h.17.self_attention.dense.bias torch.float16
  214. transformer.h.17.post_attention_layernorm.weight torch.float16
  215. transformer.h.17.post_attention_layernorm.bias torch.float16
  216. transformer.h.17.mlp.dense_h_to_4h.weight torch.uint8
  217. transformer.h.17.mlp.dense_h_to_4h.bias torch.float16
  218. transformer.h.17.mlp.dense_4h_to_h.weight torch.uint8
  219. transformer.h.17.mlp.dense_4h_to_h.bias torch.float16
  220. transformer.h.18.input_layernorm.weight torch.float16
  221. transformer.h.18.input_layernorm.bias torch.float16
  222. transformer.h.18.self_attention.query_key_value.weight torch.uint8
  223. transformer.h.18.self_attention.query_key_value.bias torch.float16
  224. transformer.h.18.self_attention.dense.weight torch.uint8
  225. transformer.h.18.self_attention.dense.bias torch.float16
  226. transformer.h.18.post_attention_layernorm.weight torch.float16
  227. transformer.h.18.post_attention_layernorm.bias torch.float16
  228. transformer.h.18.mlp.dense_h_to_4h.weight torch.uint8
  229. transformer.h.18.mlp.dense_h_to_4h.bias torch.float16
  230. transformer.h.18.mlp.dense_4h_to_h.weight torch.uint8
  231. transformer.h.18.mlp.dense_4h_to_h.bias torch.float16
  232. transformer.h.19.input_layernorm.weight torch.float16
  233. transformer.h.19.input_layernorm.bias torch.float16
  234. transformer.h.19.self_attention.query_key_value.weight torch.uint8
  235. transformer.h.19.self_attention.query_key_value.bias torch.float16
  236. transformer.h.19.self_attention.dense.weight torch.uint8
  237. transformer.h.19.self_attention.dense.bias torch.float16
  238. transformer.h.19.post_attention_layernorm.weight torch.float16
  239. transformer.h.19.post_attention_layernorm.bias torch.float16
  240. transformer.h.19.mlp.dense_h_to_4h.weight torch.uint8
  241. transformer.h.19.mlp.dense_h_to_4h.bias torch.float16
  242. transformer.h.19.mlp.dense_4h_to_h.weight torch.uint8
  243. transformer.h.19.mlp.dense_4h_to_h.bias torch.float16
  244. transformer.h.20.input_layernorm.weight torch.float16
  245. transformer.h.20.input_layernorm.bias torch.float16
  246. transformer.h.20.self_attention.query_key_value.weight torch.uint8
  247. transformer.h.20.self_attention.query_key_value.bias torch.float16
  248. transformer.h.20.self_attention.dense.weight torch.uint8
  249. transformer.h.20.self_attention.dense.bias torch.float16
  250. transformer.h.20.post_attention_layernorm.weight torch.float16
  251. transformer.h.20.post_attention_layernorm.bias torch.float16
  252. transformer.h.20.mlp.dense_h_to_4h.weight torch.uint8
  253. transformer.h.20.mlp.dense_h_to_4h.bias torch.float16
  254. transformer.h.20.mlp.dense_4h_to_h.weight torch.uint8
  255. transformer.h.20.mlp.dense_4h_to_h.bias torch.float16
  256. transformer.h.21.input_layernorm.weight torch.float16
  257. transformer.h.21.input_layernorm.bias torch.float16
  258. transformer.h.21.self_attention.query_key_value.weight torch.uint8
  259. transformer.h.21.self_attention.query_key_value.bias torch.float16
  260. transformer.h.21.self_attention.dense.weight torch.uint8
  261. transformer.h.21.self_attention.dense.bias torch.float16
  262. transformer.h.21.post_attention_layernorm.weight torch.float16
  263. transformer.h.21.post_attention_layernorm.bias torch.float16
  264. transformer.h.21.mlp.dense_h_to_4h.weight torch.uint8
  265. transformer.h.21.mlp.dense_h_to_4h.bias torch.float16
  266. transformer.h.21.mlp.dense_4h_to_h.weight torch.uint8
  267. transformer.h.21.mlp.dense_4h_to_h.bias torch.float16
  268. transformer.h.22.input_layernorm.weight torch.float16
  269. transformer.h.22.input_layernorm.bias torch.float16
  270. transformer.h.22.self_attention.query_key_value.weight torch.uint8
  271. transformer.h.22.self_attention.query_key_value.bias torch.float16
  272. transformer.h.22.self_attention.dense.weight torch.uint8
  273. transformer.h.22.self_attention.dense.bias torch.float16
  274. transformer.h.22.post_attention_layernorm.weight torch.float16
  275. transformer.h.22.post_attention_layernorm.bias torch.float16
  276. transformer.h.22.mlp.dense_h_to_4h.weight torch.uint8
  277. transformer.h.22.mlp.dense_h_to_4h.bias torch.float16
  278. transformer.h.22.mlp.dense_4h_to_h.weight torch.uint8
  279. transformer.h.22.mlp.dense_4h_to_h.bias torch.float16
  280. transformer.h.23.input_layernorm.weight torch.float16
  281. transformer.h.23.input_layernorm.bias torch.float16
  282. transformer.h.23.self_attention.query_key_value.weight torch.uint8
  283. transformer.h.23.self_attention.query_key_value.bias torch.float16
  284. transformer.h.23.self_attention.dense.weight torch.uint8
  285. transformer.h.23.self_attention.dense.bias torch.float16
  286. transformer.h.23.post_attention_layernorm.weight torch.float16
  287. transformer.h.23.post_attention_layernorm.bias torch.float16
  288. transformer.h.23.mlp.dense_h_to_4h.weight torch.uint8
  289. transformer.h.23.mlp.dense_h_to_4h.bias torch.float16
  290. transformer.h.23.mlp.dense_4h_to_h.weight torch.uint8
  291. transformer.h.23.mlp.dense_4h_to_h.bias torch.float16
  292. transformer.ln_f.weight torch.float16
  293. transformer.ln_f.bias torch.float16
  1. 下面2个部分是LoRA相关的配置。

1、PEFT 步骤1 配置文件

在使用PEFT进行微调时,我们首先需要创建一个配置文件,该文件定义了微调过程中的各种设置,如学习率调度、优化器选择等。

  1. from peft import LoraConfig, TaskType, get_peft_model
  2. ## ,target_modules=["query_key_value"],r=8
  3. config = LoraConfig(task_type=TaskType.CAUSAL_LM,r=8, target_modules=['query_key_value'])
  4. config

输出

  1. LoraConfig(peft_type=<PeftType.LORA:'LORA'>, auto_mapping=None, base_model_name_or_path=None, revision=None, task_type=<TaskType.CAUSAL_LM:'CAUSAL_LM'>, inference_mode=False, r=8, target_modules=['query_key_value'], lora_alpha=8, lora_dropout=0.0, fan_in_fan_out=False, bias='none', modules_to_save=None, init_lora_weights=True, layers_to_transform=None, layers_pattern=None)

启用梯度计算

  1. # 在深度神经网络 [deep neural network] 训练时,需要对每个参数或权重 [parameter/weight] 计算其对损失函数 # [loss function] 的梯度 [gradient],从而进行反向传播 [back propagation] 和优化[optimization]。# 默认情况下不会计算输入数据 [input data] 的梯度,即使它们在计算中起到了关键的作用。但是,在某些应用场景中,# 例如图像生成 [image generation]、注意力机制 [attention mechanism] 等,需要计算输入数据的梯度。此时,# 可以通过启用计算输入梯度的功能,对输入数据进行求导并利用其梯度信息进行优化。# 作用: 启用该功能这对于在保持模型权重固定的同时微调适配器权重非常有用。
  2. model.enable_input_require_grads()

2、PEFT 步骤2 创建模型

接下来,我们使用PEFT和预训练模型来创建一个微调模型。这个模型将包含原始的预训练模型以及由PEFT引入的低秩参数。

  1. model = get_peft_model(model, config)
  2. model

输出

  1. PeftModelForCausalLM((base_model): LoraModel((model): BloomForCausalLM((transformer): BloomModel((word_embeddings): Embedding(46145,2048)(word_embeddings_layernorm): LayerNorm((2048,), eps=1e-05, elementwise_affine=True)(h): ModuleList((0-23):24 x BloomBlock((input_layernorm): LayerNorm((2048,), eps=1e-05, elementwise_affine=True)(self_attention): BloomAttention((query_key_value): Linear4bit(
  2. in_features=2048, out_features=6144, bias=True(lora_dropout): ModuleDict((default): Identity())(lora_A): ModuleDict((default): Linear(in_features=2048, out_features=8, bias=False))(lora_B): ModuleDict((default): Linear(in_features=8, out_features=6144, bias=False))(lora_embedding_A): ParameterDict()(lora_embedding_B): ParameterDict())(dense): Linear4bit(in_features=2048, out_features=2048, bias=True)(attention_dropout): Dropout(p=0.0, inplace=False))(post_attention_layernorm): LayerNorm((2048,), eps=1e-05, elementwise_affine=True)(mlp): BloomMLP((dense_h_to_4h): Linear4bit(in_features=2048, out_features=8192, bias=True)(gelu_impl): BloomGelu()(dense_4h_to_h): Linear4bit(in_features=8192, out_features=2048, bias=True))))(ln_f): LayerNorm((2048,), eps=1e-05, elementwise_affine=True))(lm_head): Linear(in_features=2048, out_features=46145, bias=False))))

查看配置

  1. config

输出

  1. LoraConfig(peft_type=<PeftType.LORA:'LORA'>, auto_mapping=None, base_model_name_or_path=None, revision=None, task_type=<TaskType.CAUSAL_LM:'CAUSAL_LM'>, inference_mode=False, r=8, target_modules={'query_key_value','dense_4h_to_h'}, lora_alpha=8, lora_dropout=0.0, fan_in_fan_out=False, bias='none', modules_to_save=None, init_lora_weights=True, layers_to_transform=None, layers_pattern=None, rank_pattern={}, alpha_pattern={}, megatron_config=None, megatron_core='megatron.core', loftq_config={})

步骤5 配置训练参数

在这一步,我们定义训练参数,这些参数包括输出目录、学习率、权重衰减、梯度累积步数、训练周期数等。这些参数将被用来配置训练过程。

指定分页优化器为"paged_adamw_32bit",这是一种针对低秩模型的优化算法

  1. args = TrainingArguments(
  2. output_dir="/root/autodl-tmp/tuningdata/qlora",# 指定模型训练结果的输出目录
  3. per_device_train_batch_size=4,# 设置每个设备(如GPU)在训练过程中的批次大小为4
  4. gradient_accumulation_steps=8,# 指定梯度累积步数为8,即将多个批次的梯度累加后再进行一次参数更新
  5. logging_steps=20,# 20个步骤记录一次日志信息
  6. num_train_epochs=1,# 指定训练的总轮数为1
  7. gradient_checkpointing=True,# 启用梯度检查点技术,可以减少内存占用并加速训练过程
  8. optim="paged_adamw_32bit"# 指定分页优化器为"paged_adamw_32bit",这是一种针对低秩模型的优化算法)

步骤6 创建训练器

最后,我们创建一个训练器实例,它封装了训练循环。训练器将负责运行训练过程,并根据我们之前定义的参数进行优化。

  1. trainer = Trainer(
  2. model=model,
  3. args=args,
  4. train_dataset=tokenized_ds,
  5. data_collator=DataCollatorForSeq2Seq(tokenizer=tokenizer, padding=True),)

步骤7 模型训练

通过调用训练器的

  1. train()

方法,我们启动模型的训练过程。这将根据之前定义的参数执行模型的训练。

  1. trainer.train()

步骤8 模型推理

训练完成后,我们可以使用训练好的模型进行推理。

  1. from peft import PeftModel
  2. from transformers import pipeline
  3. #加载基础模型
  4. model = AutoModelForCausalLM.from_pretrained("Langboat/bloom-1b4-zh", low_cpu_mem_usage=True)
  5. tokenizer = AutoTokenizer.from_pretrained("Langboat/bloom-1b4-zh")#加载lora模型
  6. p_model = PeftModel.from_pretrained(model=model, model_id="/root/autodl-tmp/tuningdata/qlora/checkpoint-500")#模型推理
  7. pipe = pipeline("text-generation", model=p_model, tokenizer=tokenizer, device=0)
  8. ipt ="Human: {}\n{}".format("如何写好一个简历?","").strip()+"\n\nAssistant: "
  9. pipe(ipt, max_length=500, do_sample=True,)

输出

  1. [{'generated_text':'Human: 如何写好一个简历?\n\nAssistant: 好的,那么你应该考虑以下几点:\n\n1. 职位相关性\n\n有些职位可能会要求你具有相应的学历或工作经验,所以你需要在简历中附上这些信息,以确保你不会被误解为没有相关经验或学历。\n\n2. 个人信息部分\n\n在你的个人信息部分上,一定要附上你自述的职位,并提供你详细的职位描述。\n\n3. 背景与工作经历\n\n在这里你可以列出你过去的工作经历,包括工作项目、取得的奖励、你的发展方向、参加过的课程等。\n\n4. 优势项目\n\n除了上面提到的经历外,你还可以补充一些你擅长的项目,这样你就可以更容易让招聘人员了解到你的特质并做出判断。\n\n5. 能力证明部分\n\n这里你需要附上你过去工作中涉及到的关键工具和流程,以及通过这些工具和流程实现的实际结果。\n\n6. 本职工作领域\n\n你还应该附上你的主要工作领域,这样招聘人员就可以了解你的技能、经验和知识在哪些领域发挥着作用。\n\n7. 专长描述部分\n\n在这些方面,你可以描述一下你在这个专业领域拥有过哪些独特的技能,哪些领域你比其他人更有优势,以及有哪些是你自己擅长的。\n\n8. 职位描述部分\n\n在这里你可以附上你在当前工作领域取得的成就,描述下你在这项工作中能够为公司带来的价值,并证明你能够胜任这份工作。\n\n9. 未来的发展规划\n\n除了这个部分,你也可以补充一些未来的发展规划,这样招聘人员就可以了解你的目标和野心。\n\n10. 联系方式\n\n这里你可以附上你的联络方式,以便招聘人员能够及时与你联系,讨论相关事宜。\n\n11. 备注部分\n\n在简历的最后,你可以附上一个个人备注部分,你可以在这里说明如何能够更好的帮助面试者了解你,并阐述下你想找工作的原因。'}]

总结

QLoRA技术为大型语言模型的预训练与微调提供了一种高效、节省资源的方案。通过精心设计的量化策略和低秩适配器,QLoRA在保证模型性能的同时,显著降低了内存占用,为AI领域的研究者和工程师提供了宝贵的实践经验。

在这里插入图片描述

🎯🔖更多专栏系列文章:AIGC-AI大模型探索之路

如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我,让我们携手同行AI的探索之旅,一起开启智能时代的大门!


本文转载自: https://blog.csdn.net/xiaobing259/article/details/138555530
版权归原作者 寻道AI小兵 所有, 如有侵权,请联系我们删除。

“AI大模型探索之路-训练篇17:大语言模型预训练-微调技术之QLoRA”的评论:

还没有评论