服务器Ubuntu22.04体系 使用dcocker部署安装ollama和搭配open_webui使用
一、ubuntu和docker根本环境配置
1.更新包列表:
更新时间较长,请耐烦等待
2. 安装docker依赖
- sudo apt-get install ca-certificates curl gnupg lsb-release
复制代码 3. 添加docker密钥
- curl -fsSL http://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
复制代码 4.添加阿里云docker软件源
- sudo add-apt-repository "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"
复制代码 假如是arm架构,命令换成下面这个,否则第5步会堕落
- sudo add-apt-repository "deb [arch=arm64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"
复制代码 5.安装docker
- apt-get install docker-ce docker-ce-cli containerd.i
复制代码 6.安装完成docker测试
7. docker配置国内镜像源
- vi /etc/docker/daemon.json
复制代码 按i进入编辑模式
参加以下内容:
- {
- "registry-mirrors": [
- "https://docker.mirrors.ustc.edu.cn",
- "https://hub-mirror.c.163.com",
- "https://docker.m.daocloud.io",
- "https://ghcr.io",
- "https://mirror.baidubce.com",
- "https://docker.nju.edu.cn"
- ]
- }
复制代码 按ESC键退出编辑模式,接着输入:wq,保存并退出
- sudo systemctl daemon-reload
复制代码
- sudo systemctl restart docker
复制代码 2. 安装英伟达显卡驱动
2.1 使用wget在命令行下载驱动包
注意,这里是要根据自己的呆板选择驱动版本进行安装,这里是选择的是aarch64架构的550.90.07驱动,其他的可以去英伟达官网自己找。官方高级驱动搜索 。注意,选择cuda的时候,要选择你要安装的版本(我这里是选择最新的12.4,除了12.4,还可以兼容12.4以下的。)
- wget https://cn.download.nvidia.com/tesla/550.90.07/NVIDIA-Linux-aarch64-550.90.07.run
复制代码 2.2 更新软件列表和安装必要软件、依赖
- sudo apt-get update
- sudo apt-get install g++sudo apt-get install gccsudo apt-get install make
复制代码 2.2 卸载原有驱动(假如执行nvidia-smi
报错可以不消执行这一步)
- sudo apt-get remove --purge nvidia*
复制代码 使用vim修改配置文件
- sudo vim /etc/modprobe.d/blacklist.conf
复制代码 按i键进入编辑模式,在文件尾增加两行:
- blacklist nouveau
- options nouveau modeset=0
复制代码 按esc键退出编辑模式,输入:wq保存并退出
更新文件
重启电脑:
2.3 安装驱动
授予执行权限(记得将文件名换成自己的驱动文件)
- sudo chmod 777 NVIDIA-Linux-aarch64-550.90.07.run
复制代码 执行安装命令
- sudo ./NVIDIA-Linux-aarch64-550.90.07
复制代码 检测显卡驱动是否安装成功
出现以下界面则证明驱动安装成功(注意,Processes是我在执行的进程,假如你是新安装的,应该是空缺的。)
2.4 安装CUDA
注意:这里选择安装的版本一定要等于或者低于你执行nvidia-smi
命令后显示的CUDA Version那个版本,比如我是显示12.4,则我可以安装12.4或者是之前的版本。驱动与CUDA版本对应关系,可以看官网这里介绍,驱动版本与CUDA版本的对应表
- wget https://developer.download.nvidia.com/compute/cuda/12.4.0/local_installers/cuda_12.4.0_550.54.14_linux.run
复制代码 输出accept开始安装
注意这里要按enter取消勾选第一个选项,因为之前已经安装了驱动
然后选择Install开始安装
- sudo sh cuda_12.4.0_550.54.14_linux.run
复制代码 2.5 环境变量配置
以vim方式打开配置文件
在文件尾中参加以下两行:
- export PATH="/usr/local/cuda-12.4/bin:$PATH"
- export LD_LIBRARY_PATH="/usr/local/cuda-12.4/lib64:$LD_LIBRARY_PATH"
复制代码 更新环境变量
检测CUDA是否安装成功
出现下面的信息则证明CUDA安装成功
3. 安装conda
3.1 软件下载
- wget -c https://repo.anaconda.com/archive/Anaconda3-2023.03-1-Linux-x86_64.sh
- bash Anaconda3-2023.03-1-Linux-x86_64.sh
复制代码 3.2 设置环境变量
在末尾添加环境变量
- export PATH="~/anaconda3/bin:$PATH"
复制代码- vim ~/.bashrc
- export PATH="~/anaconda3/bin:$PATH"
复制代码 刷新环境变量
- source /etc/profile
- source ~/.bashrc
复制代码 然后conda -V
要是正常就安装成功了
3.3 conda配置
配置清华镜像源
代码如下:
- conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
- conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
- conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
复制代码 设置搜索时显示通道地址
- conda config --set show_channel_urls yes
复制代码 配置pip 镜像源
- pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
复制代码 三、使用docker安装ollama
1. 使用docker拉取ollama镜像
- docker pull ollama/ollama:latest
复制代码 国内镜像
- docker pull dhub.kubesre.xyz/ollama/ollama:latest
复制代码 2.使用docker运行以下命令来启动 Ollama 容器
- docker run -d --gpus=all --restart=always -v /home/docker/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
复制代码 使ollama保持模型加载在内存(显存)中
- 参考文章
ollama如何保持模型加载在内存(显存)中或立刻卸载
- 执行以下命令:
- docker run -d --gpus=all -e OLLAMA_KEEP_ALIVE=-1 --restart=always -v /home/docker/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
复制代码
- 错误信息
假如在启动容器的时候,提示:Error response from daemon: could not select device driver “” with capabilities: [[gpu]]
这是由于没有配置好docker运行环境导致的,执行安装容器运行环境(Ubuntu为例),参考docker 报错:不能选择设备驱动 could not select device driver 的办理方法
- # 确保显卡驱动已安装nvidia-smi
- # 创建包仓库和GPG keydistribution=$(. /etc/os-release;echo $ID$VERSION_ID) \ && curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \ && curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | \ sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \ sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list# 更新包列表之后安装 nvidia-docker2 包(以及依赖)sudo apt-get update
- sudo apt-get install -y nvidia-docker2# 安装完毕重启容器sudo systemctl restart docker
复制代码 3.使用ollama下载模型
- docker exec -it ollama ollama run qwen2
复制代码
模型参数数目巨细下载方式Llama 27B3.8GBdocker exec -it ollama ollama run llama2Mistral7B4.1GBdocker exec -it ollama ollama run mistralDolphin Phi2.7B1.6GBdocker exec -it ollama ollama run dolphin-phiPhi-22.7B1.7GBdocker exec -it ollama ollama run phiNeural Chat7B4.1GBdocker exec -it ollama ollama run neural-chatStarling7B4.1GBdocker exec -it ollama ollama run starling-lmCode Llama7B3.8GBdocker exec -it ollama ollama run codellamaLlama 2 Uncensored7B3.8GBdocker exec -it ollama ollama run llama2-uncensoredLlama 213B7.3GBdocker exec -it ollama ollama run llama2:13bLlama 270B39GBdocker exec -it ollama ollama run llama2:70bLlama 3.18B4.7GBdocker exec -it ollama ollama run llama3.1:70Orca Mini3B1.9GBdocker exec -it ollama ollama run orca-miniVicuna7B3.8GBdocker exec -it ollama ollama run vicunaLLaVA7B4.5GBdocker exec -it ollama ollama run llavaGemma2B1.4GBdocker exec -it ollama ollama run gemma:2bGemma7B4.8GBdocker exec -it ollama ollama run gemma:7b 4.使用ollama下载模型
下载微调版本的,可以看这篇文章,[HuggingFace + Ollama + Llama 3.1:轻松搞定Llama 3.1中文微调版本安装](
四、使用docker安装open-webui
1. docker部署ollama web ui
main版本
- docker run -d -p 30131:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main
复制代码 cuda版本
- docker run -d -p 30131:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:cuda
复制代码
2.注册账号
3.成功进入:
4. 谈天界面
参考来源:https://blog.csdn.net/weixin_62798503/article/details/140658151
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |