0


单个消费级GPU笔记本win电脑测试LLaMA模型

1、LLaMa模型代码:

  1. GitHub - facebookresearch/llama: Inference code for LLaMA models
  2. 不同模型对参数规模要求不同,有7B13B30B(33B)和65B四个数据规模。

ModelMP7B113B230B(33B)465B8
2、环境检查

(1)、检查CUDA环境是否已安装(没有的话先安装CUDA):

(2)、检查是否已安装Pytorch(没有的话先安装Pytorch):

3、LLaMa模型下载:

(1)、7B模型:

  1. nyanko7/LLaMA-7B at main (huggingface.co)

(2)、13B模型:

  1. elinas/alpaca-13b-lora-int4 at main (huggingface.co)

(3)、30B模型:

  1. elinas/llama-30b-int4 · Hugging Face

(4)、65B模型:

  1. nyanko7/LLaMA-65B at main (huggingface.co)

(5)、下载之前创建一个llama.cpp文件夹,在此文件夹创建一个models文件夹。

  1. 将所下载的不同版本模型文件下载到models文件夹。文件应该按如下结构存放到刚刚建立的"Models“文件夹:

% ls ./models

7B

13B

30B

65B

llama.sh

tokenizer.model

tokenizer_checklist.chk

  1. 6)其它版本LLaMa下载:
  2. 由于Meta官方最小的7B模型对显存和内存要求比较高。
  3. 这里选择了一个量化版7B的小模型来测试。量化版7B小模型下载地址:
  4. GitHub - ggerganov/llama.cpp: Port of Facebook's LLaMA model in C/C++

4、 克隆项目并配置环境:

  1. git clone https://github.com/facebookresearch/llama.git
  2. cd llama
  3. pip install -r requirements.txt
  4. pip install -e

5、运行以下命令,将第一个Pth脚本转换为ggml.py格式:

  1. python convert-pth-to-ggml.py models/7B/ 1
  1. 将在"7B”文件夹产生一个名为”models/7B/ggml-model-f16.bin"的文件。

6、运行以下命令,将第二个脚本 "quantize"量化为4bit文件。

  1. ./quantize ./models/7B/ggml-model-f16.bin ./models/7B/ggml-model-q4_0.bin 2
  1. 将在"7B”文件夹产生一个名为”models/7B/ggml-model-q4_0.bin"的文件。

7、运行LLaMa模型:

  1. 1)使用Docker运行LLaMa模型。
  2. 2)使用WebUI运行LLaMA 模型。
  3. 3)使用以下方式运行LLaMa模型:
  1. ./main -m ./models/7B/ggml-model-q4_0.bin \
  2. -t 8 \
  3. -n 128 \
  4. -p 'The first man on the moon was '
  1. ./main--帮助显示[选项]。
  2. -m是模型。
  3. -t是要使用的线程数。
  4. -n是要生成的令牌数。
  5. -p是要输入的提示词。

8、以下是完整的帮助输出:

  1. ./main[选项]
  2. 选项:
  3. -h --帮助显示此帮助消息并退出
  4. -s SEED,--种子(默认值:-1
  5. -t N,--N个线程[计算期间要使用的线程数(默认值:4)]
  6. -p PROMPT,--提示词
  7. 提示开始生成(默认值:随机)
  8. -n n,--n_predict n个要预测的令牌数(默认值:128
  9. --top_k N top-k采样(默认值:40
  10. --top_p N top-p采样(默认值:0.9
  11. --temp N温度(默认值:0.8
  12. -b N,--batch_size N用于提示处理的批量大小(默认值:8
  13. -m FNAME,--模型的首个名称
  14. 模型路径(默认值:models/llama-7B/ggml model.bin

9、实验结果:

10、能力表现对比:

(1) 常识推理:

  1. LLaMA-65B Chinchilla-70BPaLM540B稍强。LLaMA-13B推理能力比GPT-3强。

(2) 闭卷问答:

  1. LLaMA-65BGPT-3Chinchilla具有竞争力。

(3) 阅读理解:

  1. LLaMA-13BGPT-3稍强。

(4)数学推理:

  1. LLaMA65B优于Minerva-62B

(5) 代码生成:

  1. LLaMA优于LaMDAPaLM

(6) 多任务语言理解:

  1. LLaMA-65BChinchilla70BPaLM-540B稍逊。

(7) 训练能力进化:

  1. 未知。

参考:

1、GitHub - ggerganov/llama.cpp: Port of Facebook's LLaMA model in C/C++2、Running LLaMA 7B and 13B on a 64GB M2 MacBook Pro with llama.cpp | Simon Willison’s TILs


本文转载自: https://blog.csdn.net/StringEast/article/details/129839639
版权归原作者 StringEast 所有, 如有侵权,请联系我们删除。

“单个消费级GPU笔记本win电脑测试LLaMA模型”的评论:

还没有评论