win10 条记本电脑安装 pytorch+cuda+gpu 大模型开辟情况过程记录 ...

立山  论坛元老 | 2025-4-6 04:22:27 | 来自手机 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 1872|帖子 1872|积分 5616

win10 条记本电脑安装 pytorch+cuda+gpu 大模型开辟情况过程记录

文章部分内容参考 deepseek。
以下利用下令行工具 mingw64。
安装 Anaconda

安装位置:
/c/DEVPACK/Anaconda3
然后安装 Python 3.10.16
(略)
  1. $ conda create -n pytorch_env python=3.10
  2. $ conda activate pytorch_env
复制代码
安装 CUDA cuDNN

安装 cuda toolkit 会更新体系的显卡驱动。尽管我的 Thinkpad X1 驱动已经是最新,但是仍然比 Nvidia 提供的旧。所以要更新 N 卡驱动。因为 pytorch 支持 12.6,所以我选择 cuda12.6。
下载:
cuda_12.6.3_561.17_windows.exe
cudnn_9.6.0_windows.exe
然后安装位置:
  1. C:\NVIDIA\cuda126
  2. C:\NVIDIA\cudnn9.6
复制代码
体系情况变量设置如下:
  1. CUDA_PATH=C:\NVIDIA\cuda126
  2. CUDA_PATH_V12_6=C:\NVIDIA\cuda126
  3. Path=C:\NVIDIA\cuda126;C:\NVIDIA\cuda126\bin;C:\NVIDIA\cuda126\libnvvp;C:\NVIDIA\cuda126\lib\x64;C:\NVIDIA\cudnn9.6\bin\12.6;C:\NVIDIA\cudnn9.6\lib\12.6\x64;...
复制代码
安装 CUDA 时,不要勾选(名字记不清了,大概意思):
  1. Nsight SVE
  2. Cuda Visual Studio 整合
复制代码
安装完毕测试:
$ nvcc -V
  1. nvcc: NVIDIA (R) Cuda compiler driver
  2. Copyright (c) 2005-2024 NVIDIA Corporation
  3. Built on Wed_Oct_30_01:18:48_Pacific_Daylight_Time_2024
  4. Cuda compilation tools, release 12.6, V12.6.85
  5. Build cuda_12.6.r12.6/compiler.35059454_0
复制代码
$ nvidia-smi
  1.     Sat Apr  5 16:43:53 2025
  2.         +-----------------------------------------------------------------------------------------+
  3.         | NVIDIA-SMI 561.17                 Driver Version: 561.17         CUDA Version: 12.6     |
  4.         |-----------------------------------------+------------------------+----------------------+
  5.         | GPU  Name                  Driver-Model | Bus-Id          Disp.A | Volatile Uncorr. ECC |
  6.         | Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
  7.         |                                         |                        |               MIG M. |
  8.         |=========================================+========================+======================|
  9.         |   0  NVIDIA GeForce GTX 1650      WDDM  |   00000000:01:00.0 Off |                  N/A |
  10.         | N/A   56C    P8              4W /   35W |      81MiB /   4096MiB |      0%      Default |
  11.         |                                         |                        |                  N/A |
  12.         +-----------------------------------------+------------------------+----------------------+
复制代码
阐明cuda显卡驱动和开辟情况安装成功。
安装 pytorch

访问 PyTorch官网 https://pytorch.org/get-started/locally/,选择下图橙色所示部分,留意安装的Python和CUDA版本。
打开 mingw64 下令行工具窗口,运行下面下令:
  1. $ conda config --set show_channel_urls yes
  2. $ conda config --set always_yes yes
  3. # 默认重试次数为 30
  4. $ conda config --set remote_max_retries 30
  5. # 连接超时
  6. $ conda config --set remote_connect_timeout_secs 600
  7. # 读取超时
  8. $ conda config --set remote_read_timeout_secs 1200
  9. $ conda activate pytorch_env
  10. $ pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
复制代码
漫长的等待之后安装成功。
  1. Downloading https://download.pytorch.org/whl/cu126/torch-2.6.0%2Bcu126-cp310-cp310-win_amd64.whl (2496.1 MB)
  2.    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 2.5/2.5 GB 236.1 kB/s eta 0:00:00
  3. Downloading https://download.pytorch.org/whl/cu126/torchaudio-2.6.0%2Bcu126-cp310-cp310-win_amd64.whl (4.2 MB)
  4.    ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 4.2/4.2 MB 276.7 kB/s eta 0:00:00
  5. Downloading https://download.pytorch.org/whl/fsspec-2024.6.1-py3-none-any.whl (177 kB)
  6. Installing collected packages: sympy, fsspec, torch, torchvision, torchaudio
  7.   Attempting uninstall: sympy
  8.     Found existing installation: sympy 1.13.3
  9.     Uninstalling sympy-1.13.3:
  10.       Successfully uninstalled sympy-1.13.3
  11.   Attempting uninstall: torch
  12.     Found existing installation: torch 2.5.1
  13.     Uninstalling torch-2.5.1:
  14.       Successfully uninstalled torch-2.5.1
  15. Successfully installed fsspec-2024.6.1 sympy-1.13.1 torch-2.6.0+cu126 torchaudio-2.6.0+cu126 torchvision-0.21.0+cu126
  16. (pytorch_env)
复制代码
编写一个测试文件:check_pytorch_env.py
  1. import torch
  2. print(torch.__version__)          # 查看 PyTorch 版本
  3. print(torch.cuda.is_available())  # 输出 True 表示 CUDA 可用
  4. print(torch.cuda.get_device_name(0))  # 显示 GPU 型号(如 NVIDIA RTX 3090)
复制代码
运行测试:
$ python check_pytorch_env.py
  1. 2.6.0+cu126
  2. True
  3. NVIDIA GeForce GTX 1650
  4. (pytorch_env)
复制代码
阐明 pytorch+cuda+gpu 安装成功。
安装 hugging-face

在安装好 PyTorch 后,安装 Hugging Face 的 transformers 库(核心工具库)和其他相干依赖的步骤如下。
体系情况变量增加:
  1. HF_ENDPOINT=https://hf-mirror.com            # 模型下载网站
  2. HF_HOME=D:\huggingface                       # hf 主目录。下载缓存目录自动在: $HF_HOME/hub
  3. HF_MODELS=D:\huggingface\models              # 模型保存的本地目录
  4. HF_HUB_DISABLE_SYMLINKS_WARNING=1
复制代码
完整安装下令:
  1. $ conda activate pytorch_env
  2. $ pip3 install transformers datasets tokenizers accelerate peft safetensors soundfile librosa Pillow huggingface_hub python-dotenv
复制代码
阐明:


  • transformers(模型加载与推理):支持加载预练习模型(如 BERT、GPT、T5)、进行文本生成、分类、翻译等使命。
  • datasets(数据集加载与处置惩罚):快速加载和处置惩罚 NLP、CV、语音等公开数据集(如 GLUE、SQuAD)。
  • tokenizers(高性能分词工具):用于文本分词(支持 BPE、WordPiece 等算法),比 transformers 内置分词器更快。
  • huggingface_hub:通过镜像站下载模型:huggingface-cli download --resume-download --cache-dir “当地路径” 模型名称
  • python-dotenv:读取 .env 保存的情况变量
可选:


  • accelerate(分布式练习):加速库。简化多 GPU/TPU 练习代码,支持混合精度练习。
  • evaluate:模型评估库。提供标准评估指标(如准确率、F1、BLEU)。
  • peft:模型压缩库。支持参数高效微调(如 LoRA、Prefix Tuning)。
  • safetensors:模型序列化库。安全高效的模型权重序列化格式,替代传统 pickle。
  • soundfile、librosa:音频处置惩罚
  • Pillow:图像处置惩罚
编写一个测试文件:check_huggingface.py
  1.         import transformers
  2.         from transformers import pipeline
  3.         # 应输出版本号(如 4.50.3)
  4.         print(transformers.__version__)
  5.         # 示例:情感分析管道
  6.         classifier = pipeline("sentiment-analysis")
  7.         result = classifier("Hugging Face is amazing!")
  8.         print(result)  # 输出示例:[{'label': 'POSITIVE', 'score': 0.9998}]
复制代码
运行测试:
  1. $ python check_huggingface.py
复制代码
报错。因为 https://huggingface.co 无法访问,所以需要利用Hugging Face Pipeline在当地运行模型。模型下载脚本文件:
$HF_HOME/scriptes/download_models.py
  1. import os
  2. import transformers
  3. from transformers import AutoModelForSequenceClassification, AutoTokenizer
  4. hf_models_dir = os.getenv("HF_MODELS")
  5. # 指定模型名称
  6. model_name = "nlptown/bert-base-multilingual-uncased-sentiment"
  7. local_dir = os.path.join(hf_models_dir, "bert-base-multilingual-uncased-sentiment")
  8. print("local_dir=", local_dir)
  9. # 下载模型和分词器
  10. model = AutoModelForSequenceClassification.from_pretrained(model_name)
  11. tokenizer = AutoTokenizer.from_pretrained(model_name)
  12. # 保存到本地
  13. model.save_pretrained(local_dir)
  14. tokenizer.save_pretrained(local_dir)
复制代码
实行上面的脚本:                                        H                            F                            _                            H                            O                            M                            E                            /                            s                            c                            r                            i                            p                            t                            e                            s                            /                            d                            o                            w                            n                            l                            o                            a                            d                            _                            m                            o                            d                            e                            l                            s                            .                            p                            y                            ,模型下载到当地目次:                                  HF\_HOME/scriptes/download\_models.py,模型下载到当地目次:                     HF_HOME/scriptes/download_models.py,模型下载到当地目次:HF_MODELS/bert-base-multilingual-uncased-sentiment
情感分析测试 sentiment-analysis.py:
  1. import os
  2. from transformers import pipeline
  3. # D:\huggingface\models
  4. hf_models_dir = os.environ["HF_MODELS"]
  5. print("hf_models_dir=", hf_models_dir)
  6. # 加载本地模型
  7. classifier = pipeline(
  8.     "sentiment-analysis",
  9.     model = os.path.join(hf_models_dir, "bert-base-multilingual-uncased-sentiment"),
  10.     tokenizer= os.path.join(hf_models_dir, "bert-base-multilingual-uncased-sentiment")
  11. )
  12. print("classifier ok")
  13. # 测试文本
  14. test_lines = [
  15.     "傻!",
  16.     "关税战没有赢家",
  17.     "中国国必胜。yeah yeah"
  18. ]
  19. for l in test_lines:
  20.     result = classifier(l)
  21.     print(l, result)
  22. print("test exit ok")
复制代码
实行:python sentiment-analysis.py

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

立山

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表