0


vllm安装踩坑

今天是2024/7/18.

vllm0.5.2最近一周出了个不好搞的新issue,会遇到torch.ops._C没有rms_norm,或者没有reshape_and_cache_flash这两个属性的问题。

完整报错如下:
AttributeError: ‘_OpNamespace’ ‘_C_cache_ops’ object has no attribute ‘reshape_and_cache_flash’
AttributeError: ‘_OpNamespace’ ‘_C’ object has no attribute ‘rms_norm’

rms_norm issue链接
reshape_and_cache_flash issue链接

————————————————————

我没找到好的解决办法,issue里说的情况都是在用源码安装后遇到的,我直接在干净环境ubuntu20.24 cuda12.2下面pip安装,仍然遇到了问题。而且问题指向是torch里的class缺少属性,因此我猜测是torch的问题,vllm的每个版本又强制要求某个torch版本,因此我只能选择之前的vllm版本。

出错的安装环境:
torch2.3.1, vllm0.5.2

我回退了几个版本,用了pip install vllm0.4.0,它默认使用torch2.1.2,然后就不报错了。(如果不知道vllm有哪些版本,可以这样:pip install vllm3516356 随便打个数字,pip会报错说没有这个版本,然后告诉你可选择的所有版本)

下面是vllm官网quickstart里的例子,可用于测试vllm是否工作。

from vllm import LLM, SamplingParams
prompts =["Hello, my name is","The president of the United States is","The capital of France is","The future of AI is",]
sampling_params = SamplingParams(temperature=0.8, top_p=0.95)

llm = LLM(model="facebook/opt-125m")

outputs = llm.generate(prompts, sampling_params)# Print the outputs.for output in outputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    print(f"Prompt: {prompt!r}, Generated text: {generated_text!r}")~~

——————————————————————
其他的错误

有些人虽然正常运行了,但是能看见warning: 没有flash attention。
你安装pip install flash-attn,运气不好又遇到这个:
ImportError: cannot import name ‘packaging’ from ‘pkg_resources’
原因是setuptools太新了,回退到pip install setuptools==69.5.1 --no-cache-dir就可以了。

标签: 人工智能

本文转载自: https://blog.csdn.net/qq_39006282/article/details/140525049
版权归原作者 蒸土豆的技术细节 所有, 如有侵权,请联系我们删除。

“vllm安装踩坑”的评论:

还没有评论