使用 WSL 配置 llama-factory

162次閱讀
尚無留言

共计 925 个字符,预计需要花费 3 分钟才能阅读完成。

紀錄一下如何在 WSL 下配置 llama-factory

前置準備

請務必先安裝好 conda 可以參該文章配置,另外務必配置好 WSL 代理參考該文章

安裝好後,輸入下數命令添加 Python 虛擬環境並啟用

conda create -n llama-factory python=3.11
conda activate llama-factory

配置 CUDA

確認 CUDA 驅動 是否配置完成如下圖 詳見

nvidia-smi

使用 WSL 配置 llama-factory

根據 文檔 移除 GPG Key,文中提及默認是會安裝 CUDA 相關驅動,但沒有 Toolkit 所以下面還得手動安裝

sudo apt-key del 7fa2af80

參考 官方文檔 進行安裝即可
使用 WSL 配置 llama-factory

根據命令輸入後最後安裝完成如下圖,進行測試會出現錯誤如下

使用 WSL 配置 llama-factory

配置 CUDA 路徑

先使用命令查詢如下

ls -l /usr/local/

使用 WSL 配置 llama-factory

接著配置命令啟動

vim ~/.bashrc

添加如下

export LD_LIBRARY_PATH=/usr/local/cuda/lib64
export PATH=$PATH:/usr/local/cuda/bin

使用 WSL 配置 llama-factory

刷新配置接著測試如下

source ~/.bashrc

使用 WSL 配置 llama-factory

配置 llama-factory

克隆 llama-factory 項目如下圖,如果速度很慢說明代理沒配置正確!
使用 WSL 配置 llama-factory

接著安裝依賴

pip install -e ".[torch,metrics]"

使用 WSL 配置 llama-factory

輸入命令啟動後會自動打開網頁如下圖
使用 WSL 配置 llama-factory

配置 vllm

如下命令,這裡建議添加鏡像地址,如果本身 WSL 配置代理可以不添加!

pip install -e ".[vllm]" -i https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free

安裝過程可以查看是否走鏡像地址
使用 WSL 配置 llama-factory

最終驗證查看下是否都正常配置,最終輸出 True 即可

python -c "import torch; print(torch.cuda.is_available())"

使用 WSL 配置 llama-factory

接著重新啟動後如下圖畫面操作測試結果
使用 WSL 配置 llama-factory

默認 WSL 可以直接訪問 HOST 主機,我的模型放置 D 盤所以直接 /mnt/ d 就可以訪問了

加載過程需要點時間,如下圖完成需要花費 5 分鐘
使用 WSL 配置 llama-factory

按照下圖輸出內容跟模型對話,成功即可
使用 WSL 配置 llama-factory

正文完
 0
評論(尚無留言)

夜升筆談

夜升筆談
夜升筆談
視寫代碼為信仰,奉高效能為執著,成為大牛不是一蹴可幾,但只要秉持信念終究能成,我依舊在這條路上不斷前進。
最新评论
Yosheng Yosheng 我是买梯子了 只是理解一下原理而已
虚拟信用卡 虚拟信用卡 还是直接买梯子吧,太浪费时间了
spring spring 学习了
cskepper cskepper 非常有用,已经顺利解决
cskepper cskepper 非常有用,已经顺利解决
Yosheng Yosheng 這可能是代理服務器的問題了...
淑淑 淑淑 我在大陸使用了VPN 照著你說的操作 但是出現無法透過代理伺服器連線 我的電腦是W7 也下載了兼容版 用了大概一個星期後今天LINE就無法使用VPN了 這種要怎樣解決
Yosheng Yosheng 如果不能直接撥放建議直接下載回來播放,後面我就沒去折騰為什麼不能線上播放了
SADFISH SADFISH 我无法播放语音是为什么呀楼主
Yosheng Yosheng 微信号 yosheng0323