使用 WSL 配置 llama-factory

43次閱讀
尚無留言

共计 925 个字符,预计需要花费 3 分钟才能阅读完成。

紀錄一下如何在 WSL 下配置 llama-factory

前置準備

請務必先安裝好 conda 可以參該文章配置,另外務必配置好 WSL 代理參考該文章

安裝好後,輸入下數命令添加 Python 虛擬環境並啟用

conda create -n llama-factory python=3.11
conda activate llama-factory

配置 CUDA

確認 CUDA 驅動 是否配置完成如下圖 詳見

nvidia-smi

使用 WSL 配置 llama-factory

根據 文檔 移除 GPG Key,文中提及默認是會安裝 CUDA 相關驅動,但沒有 Toolkit 所以下面還得手動安裝

sudo apt-key del 7fa2af80

參考 官方文檔 進行安裝即可
使用 WSL 配置 llama-factory

根據命令輸入後最後安裝完成如下圖,進行測試會出現錯誤如下

使用 WSL 配置 llama-factory

配置 CUDA 路徑

先使用命令查詢如下

ls -l /usr/local/

使用 WSL 配置 llama-factory

接著配置命令啟動

vim ~/.bashrc

添加如下

export LD_LIBRARY_PATH=/usr/local/cuda/lib64
export PATH=$PATH:/usr/local/cuda/bin

使用 WSL 配置 llama-factory

刷新配置接著測試如下

source ~/.bashrc

使用 WSL 配置 llama-factory

配置 llama-factory

克隆 llama-factory 項目如下圖,如果速度很慢說明代理沒配置正確!
使用 WSL 配置 llama-factory

接著安裝依賴

pip install -e ".[torch,metrics]"

使用 WSL 配置 llama-factory

輸入命令啟動後會自動打開網頁如下圖
使用 WSL 配置 llama-factory

配置 vllm

如下命令,這裡建議添加鏡像地址,如果本身 WSL 配置代理可以不添加!

pip install -e ".[vllm]" -i https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free

安裝過程可以查看是否走鏡像地址
使用 WSL 配置 llama-factory

最終驗證查看下是否都正常配置,最終輸出 True 即可

python -c "import torch; print(torch.cuda.is_available())"

使用 WSL 配置 llama-factory

接著重新啟動後如下圖畫面操作測試結果
使用 WSL 配置 llama-factory

默認 WSL 可以直接訪問 HOST 主機,我的模型放置 D 盤所以直接 /mnt/ d 就可以訪問了

加載過程需要點時間,如下圖完成需要花費 5 分鐘
使用 WSL 配置 llama-factory

按照下圖輸出內容跟模型對話,成功即可
使用 WSL 配置 llama-factory

正文完
 0
評論(尚無留言)