国产银河麒麟(arrch64)服务器+atlas300i pro 推理情况搭建

打印 上一主题 下一主题

主题 996|帖子 996|积分 2988

AI项目国产化

随着外部情况的变革,很多项目都开始提行国产化替换,包罗操作系统,CPU,加速卡。近来接收手国产化信创项目,记录一下整个项目过程,从硬件选型到软件情况搭建,给后来的小伙伴们提供一点思绪。
硬件选型

通过一段时间调研,国产化CPU支持X86也支持arrch64,但是发现国产化CPU与NPU兼容性并不是很好,根本上一个CPU厂商只能适配一款国产化NPU,做ai,更多是关注NPU,通过调研发现国内华为软、硬件生态较好,论坛、资源相对美满,故选择华为atlas300ipro 作为推理卡,CPU为鲲鹏920。
软件安装

最好先创建一个非root用户”HwHiAiUser“(昇腾指定用户名),
sudo useradd HwHiAiUser
sudo passed HwHiAiUser
下载好驱动和固件(根据本身硬件及操作系统选择)

https://www.hiascend.com/hardware/firmware-drivers/community?product=2&model=15&cann=8.0.0.alpha001&driver=1.0.25.alpha

安装:
chmod +x Ascend-hdk-310p-npu-driver_24.1.rc2_linux-aarch64.run
chmod +x Ascend-hdk-310p-npu-firmware_7.3.0.1.231.run
./Ascend-hdk-310p-npu-driver_24.1.rc2_linux-aarch64.run --full
./Ascend-hdk-310p-npu-firmware_7.3.0.1.231.run --full
sudo npu-smi info

驱动安装完成。
CANN开发工具包安装(HwHiAiUser用户)

下载毗连:https://www.hiascend.com/developer/download/community/result?module=cann&cann=8.0.RC2.2.beta1

chmod +x Ascend-cann-toolkit_8.0.RC2.2_linux-aarch64.run
./Ascend-cann-toolkit_8.0.RC2.2_linux-aarch64.run --install
安装cann-toolkit提示错误:

wget https://bootstrap.pypa.io/pip/3.7/get-pip.py
python3 get-pip.py
./Ascend-cann-toolkit_8.0.RC2.2_linux-aarch64.run --install
安装推理包(可选 轻量化工具)

https://www.hiascend.com/developer/download/community/result?module=cann&cann=8.0.RC2.2.beta1

chmod +x Ascend-cann-kernels-310p_8.0.RC2_linux.run
./Ascend-cann-kernels-310p_8.0.RC2_linux.run --install
添加系统情况变量:

vim ~/.bashrc
CANN_INSTALL_PATH 代表你安装的CANN工具包所在的目录,必要本身替换
export LD_LIBRARY_PATH=CANN_INSTALL_PATH/ascend-toolkit/latest/x86_64-linux/devlib/LD_LIBRARY_PATH
source CANN_INSTALL_PATH/ascend-toolkit/set_env.sh
默认CANN_INSTALL_PATH =/home/HwHiAiUser/Ascend
测试工具包是否安装成功

python
import acl
模型转换

单张输入:
atc --model=best.onnx --framework=5 --output=test --input_shape=“images:1,3,640,640” --soc_version=Ascend310P3
多batch输入:
atc --model=best.onnx --framework=5 --output=test --soc_version=Ascend310P3 --input_shape=“images:-1,3,768,1280” --dynamic_batch_size=“1,2,10” --output_type=FP16 --input_format=NCHW
–model:ONNX模型文件存储路径;
–framework:原始框架范例,5表示ONNX;
–output:离线om模型的路径以及文件名,不带后缀;
–soc_version:昇腾AI处置惩罚器的型号,npu-smi info 检察Ascend+XXX;
–input_shape:实行推理时模型输入数据的shape;
–dynamic_batch_size:动态尺寸范围;
–output_type:输出参数范例
–input_format:输入维度信息
昇腾开发软件生态参考地址:

https://github.com/Ascend ;https://www.hiascend.com/document/detail/zh/CANNCommunityEdition/80RC2alpha002/devguide/devguide/devguide_0001.html;

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

三尺非寒

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表