0


LLM大模型推理加速 vLLM;docker推理大模型;Qwen vLLM使用案例;模型生成速度吞吐量计算

参考:
https://github.com/vllm-project/vllm
https://zhuanlan.zhihu.com/p/645732302

https://vllm.readthedocs.io/en/latest/getting_started/quickstart.html ##文档

1、vLLM

这里使用的cuda版本是11.4,tesla T4卡
在这里插入图片描述

加速原理:
PagedAttention,主要是利用kv缓存
在这里插入图片描述

2、qwen测试使用:

注意:用最新的qwen 7B v1.1版本的话,vllm要升级到最新0.2.0才可以(https://modelscope.cn/models/qwen/Qwen-7B-Chat/summary)

注意更改:–dtype=half

python -m vllm.entrypoints
标签: 大模型 LLM

本文转载自: https://blog.csdn.net/weixin_42357472/article/details/132664224
版权归原作者 loong_XL 所有, 如有侵权,请联系我们删除。

“LLM大模型推理加速 vLLM;docker推理大模型;Qwen vLLM使用案例;模型生成速度吞吐量计算”的评论:

还没有评论