Windows LLama-Factory vllm 心得

201次閱讀
尚無留言

共计 186 个字符,预计需要花费 1 分钟才能阅读完成。

參考之前 配置的 LLama-Factory 後,打算自己本地運行開源模型進行微調,不過發現一點坑,簡單紀錄一下!方便事後回溯查看

如果沒有安裝 vllm 就載入模型會提示需要安裝如下

Windows LLama-Factory vllm 心得

那我直接根據官方命令進行安裝

pip install -e ".[vllm]"

出現以下錯誤不支持 Windows 安裝
Windows LLama-Factory vllm 心得

天真的我想說那我換個老版本安裝看看試試? 如下命令

pip install "vllm>=0.4.3,<=0.6.5" -i https://pypi.tuna.tsinghua.edu.cn/simple

結果他把我之前安裝好的 torch-cuda 版本移除並裝了 torch 2.5.1
Windows LLama-Factory vllm 心得

虽然成功安装 vllm 但是无法使用 CUDA
Windows LLama-Factory vllm 心得

於是我又重新安装 CUDA 版本,如下命令

pip3 uninstall torch torchvision torchaudio
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

这次显示如下,因为 vllm 版本关系闭支持 cuda 的 torch 库
Windows LLama-Factory vllm 心得

最终我只能先放弃 vllm,目前解决方法是透过 wsl2 重新安装 llama-factory ?‍♂️

正文完
 0
評論(尚無留言)

夜升筆談

夜升筆談
夜升筆談
視寫代碼為信仰,奉高效能為執著,成為大牛不是一蹴可幾,但只要秉持信念終究能成,我依舊在這條路上不斷前進。
最新评论
Yosheng Yosheng 我是买梯子了 只是理解一下原理而已
虚拟信用卡 虚拟信用卡 还是直接买梯子吧,太浪费时间了
spring spring 学习了
cskepper cskepper 非常有用,已经顺利解决
cskepper cskepper 非常有用,已经顺利解决
Yosheng Yosheng 這可能是代理服務器的問題了...
淑淑 淑淑 我在大陸使用了VPN 照著你說的操作 但是出現無法透過代理伺服器連線 我的電腦是W7 也下載了兼容版 用了大概一個星期後今天LINE就無法使用VPN了 這種要怎樣解決
Yosheng Yosheng 如果不能直接撥放建議直接下載回來播放,後面我就沒去折騰為什麼不能線上播放了
SADFISH SADFISH 我无法播放语音是为什么呀楼主
Yosheng Yosheng 微信号 yosheng0323