WSL2 Ubuntu22.04 摆设设置Xinference和全部的坑

打印 上一主题 下一主题

主题 992|帖子 992|积分 2976

从零安装 WSL2 Ubuntu22.04 并摆设Xinference和全部的坑

2025-1-20
老规矩,感谢参考文章的作者,少走了许多弯路。
参考

【1】 WSL2-Ubuntu20.04设置深度学习环境(CUDA、CUDNN、Pytorch)
【2】windows wsl2(ubuntu)使用xinference快速摆设ai模子
【3】Xinference 安装使用(支持CPU、Metal、CUDA推理和分布式摆设)
安装 N卡 windows 驱动



  • 注意是 windows 驱动,不是linux驱动
查看当前版本
右键/nvidia 控制面板/系统信息
Nvidia GeForce RTX4070 Super
版本 560.94
NVIDIA Windows Driver x86
https://www.nvidia.com/Download/index.aspx
https://www.nvidia.cn/drivers/lookup/
   国内用 cn
  NVIDIA Studio 驱动程序
GeForce Game Ready 驱动程序
   Q00 选哪个? 我的环境已有驱动,先不升级。
  验证下
  1. PS C:\Users\zy-de> nvidia-smi
  2. Mon Jan 20 13:45:26 2025
  3. +-----------------------------------------------------------------------------------------+
  4. | NVIDIA-SMI 560.94                 Driver Version: 560.94         CUDA Version: 12.6     |
  5. |-----------------------------------------+------------------------+----------------------+
  6. | GPU  Name                  Driver-Model | Bus-Id          Disp.A | Volatile Uncorr. ECC |
  7. | Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
  8. |                                         |                        |               MIG M. |
  9. |=========================================+========================+======================|
  10. |   0  NVIDIA GeForce RTX 4070 ...  WDDM  |   00000000:01:00.0  On |                  N/A |
  11. |  0%   43C    P8              3W /  220W |    1610MiB /  12282MiB |      0%      Default |
  12. |                                         |                        |                  N/A |
  13. +-----------------------------------------+------------------------+----------------------+
复制代码
WSL2 安装

windows11 安装WSL2全流程
1、启用window子系统及虚拟化
2、手动安装
wsl --update
wsl --version
设置默认WSL版本
我们只使用wsl2,power shell 以管理员方式运行 # 将 WSL 默认版本设置为 WSL 2
wsl --set-default-version 2
查看当前已有的镜像
wsl -l -v
更改存储路径

wsl2迁徙存储位置快捷方法实用于WSL 2.3.11以上
步调详细
1.列出可用wsl版本
wsl --list
2.如果在使用关闭wsl
wsl --shoudown
3. 移动指定版本到指定路径
wsl --manage Ubuntu-22.04 --move <path>
安装 Ubuntu 并改存储路径

  1. wsl --list --online
  2. wsl --install -d Ubuntu-22.04
  3. wsl --shutdown
  4. wsl --list --verbose
  5. wsl --manage Ubuntu-22.04 --move d:\WSL_Ubuntu2204
复制代码
安装 miniconda(关键)

   关键步调,安装了 python 环境,为安装 cuda_toolkit 准备环境。
  1. wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
  2. bash Miniconda3-latest-Linux-x86_64.sh
  3. conda --version
  4. conda info -e
  5. conda create -n mypy310 python=3.10
  6. conda activate mypy310
  7. conda deactivate mypy310
复制代码
安装 cuda toolkit

先切换到 conda mypy310 环境下, 不需要切换到 root 用户


  • 安装CUDA
    CUDA Toolkit 12.6 Update 3
   注意选, wsl-Ubuntu!!!
    Ubuntu不用换源, 速率挺快的。没有任何错,直接安装ok。
  1. wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
  2. sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
  3. wget https://developer.download.nvidia.com/compute/cuda/12.6.3/local_installers/cuda-repo-wsl-ubuntu-12-6-local_12.6.3-1_amd64.deb
  4. > 2G
  5. sudo dpkg -i cuda-repo-wsl-ubuntu-12-6-local_12.6.3-1_amd64.deb
  6. sudo cp /var/cuda-repo-wsl-ubuntu-12-6-local/cuda-*-keyring.gpg /usr/share/keyrings/
  7. sudo apt-get update
  8. sudo apt-get -y install cuda-toolkit-12-6
复制代码
  一次成功
  

  • 设置环境变量
  1. vim ~/.bashrc
  2. export PATH=/usr/local/cuda-12.6/bin:$PATH
  3. source ~/.bashrc
复制代码
  【1】 还要求设置 LD_LIBRARY_PATH, 暂时没设置
export LD_LIBRARY_PATH=/usr/local/cuda-12.6/lib64LD_LIBRARY_PATH
  1. (mypy310) ***:~$ nvcc --version
  2. nvcc: NVIDIA (R) Cuda compiler driver
  3. Copyright (c) 2005-2024 NVIDIA Corporation
  4. Built on Tue_Oct_29_23:50:19_PDT_2024
  5. Cuda compilation tools, release 12.6, V12.6.85
  6. Build cuda_12.6.r12.6/compiler.35059454_0
  7. (base) ***:~$ nvidia-smi
  8. Mon Jan 20 17:21:38 2025
  9. +-----------------------------------------------------------------------------------------+
  10. | NVIDIA-SMI 560.35.02              Driver Version: 560.94         CUDA Version: 12.6     |
  11. |-----------------------------------------+------------------------+----------------------+
  12. | GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
  13. | Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
  14. |                                         |                        |               MIG M. |
  15. |=========================================+========================+======================|
复制代码
  cuda toolkit 安装成功
  不需要手动安装 pytorch

pytorch
conda install pytorch torchvision torchaudio pytorch-cuda=12.4 -c pytorch -c nvidia
   TODO 暂时没装, cuda 是12.6, 这里表现 12.4 有点奇怪。
    后续 pip 安装 Xinference 时会自动安装。
  不需要手动安装 NCCL, cudaxxx 一堆东东

   后续 pip 安装 Xinference 时会自动安装。
  pip 摆设 Xinference 而不是 docker摆设

   实验过用 Docker 摆设 Xinference CPU版 和 GPU 版。
Docker 用过 windows的 Docker desktop和 虚拟机的 docker。 都不行。
特别花时间,CPU版 6G, GPU 版 17G。
  安装

pip install "xinference[all]"
   很慢。换源。
  1. pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
  2. pip config set install.trusted-host mirrors.aliyun.com
复制代码
  ok
  pip install "xinference[all]"


  • 坑 nvidia-cublas-cu12 time out
   再试一次ok
  

  • 坑 llama-cpp-python
note: This error originates from a subprocess, and is likely not a problem with pip.
ERROR: Failed building wheel for llama-cpp-python
ERROR: ERROR: Failed to build installable wheels for some pyproject.toml based projects (llama-cpp-python)
   不用 xinference[all], 单独安装别的, 暂时不安装 llama-cpp-python
  1. pip install "xinference[transformers]"
  2. pip install "xinference[vllm]"
  3. pip install "xinference[sglang]"
复制代码
  安装成功
  1. CMAKE_ARGS="-DLLAMA_CUBLAS=on" pip install llama-cpp-python
  2. CMake Error at vendor/llama.cpp/CMakeLists.txt:104 (message):
  3. LLAMA_CUBLAS is deprecated and will be removed in the future.
  4. Use GGML_CUDA instead
  5. *** CMake configuration failed
  6. [end of output]
  7. CMAKE_ARGS="-DGGML_CUDA=on" pip install llama-cpp-python
  8. cuda.so: undefined reference to `cudaGetLastError@libcudart.so.12'
  9. collect2: error: ld returned 1 exit status
  10. *** CMake build failed
  11. [end of output]
复制代码
  llama-cpp-python 还是堕落。先不用这种模子。
  查看 ip

  1. ifconfig
  2. 172.29.225.230
复制代码
  TODO 扩展,WSL怎样设置能固定这个ip
  启动

XINFERENCE_HOME=/***/xinference XINFERENCE_MODEL_SRC=modelscope xinference-local --host 0.0.0.0 --port 9997
访问

   Windows 下欣赏器 172.29.225.230:9997 直接访问 ok。
不需要在 wsl Ubuntu里启动欣赏器。
  

   Q00 虚拟机能访问吗?
可以访问!
  

   查看显卡使用
  1. (base) ***:~$ nvidia-smi
  2. Mon Jan 20 17:33:08 2025
  3. +-----------------------------------------------------------------------------------------+
  4. | NVIDIA-SMI 560.35.02              Driver Version: 560.94         CUDA Version: 12.6     |
  5. |-----------------------------------------+------------------------+----------------------+
  6. | GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
  7. | Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
  8. |                                         |                        |               MIG M. |
  9. |=========================================+========================+======================|
  10. |   0  NVIDIA GeForce RTX 4070 ...    On  |   00000000:01:00.0  On |                  N/A |
  11. |  0%   41C    P8              2W /  220W |    3617MiB /  12282MiB |      0%      Default |
  12. |                                         |                        |                  N/A |
  13. +-----------------------------------------+------------------------+----------------------+
  14. +-----------------------------------------------------------------------------------------+
  15. | Processes:                                                                              |
  16. |  GPU   GI   CI        PID   Type   Process name                              GPU Memory |
  17. |        ID   ID                                                               Usage      |
  18. |=========================================================================================|
  19. |    0   N/A  N/A      7792      C   /python3.10                                 N/A      |
  20. +-----------------------------------------------------------------------------------------+
复制代码
哇咔咔,终于搞定!
2025-1-20

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

三尺非寒

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表