华为昇腾920b服务器部署DeepSeek翻车现场演示
作者:是小V呀
最近到祸一台HUAWEI Kunpeng 920 5250,先看看配置。之前是部署的讯飞大模型,发现资源利用率太低了。把5台减少到3台,就出了他
硬件配置信息
基本硬件信息
按照惯例先来看看配置。一共3块盘,500G的系统盘,+ 2块3T固态,后面把固态硬盘也组合成了逻辑卷
内存是1.5T的,比我电脑硬盘都大
[root@localhost ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sda 8:0 0 446.6G 0 disk ├─sda1 8:1 0 600M 0 part /boot/efi ├─sda2 8:2 0 1G 0 part /boot └─sda3 8:3 0 445G 0 part ├─openeuler-root 253:0 0 70G 0 lvm / ├─openeuler-swap 253:1 0 4G 0 lvm [SWAP] └─openeuler-home 253:2 0 371G 0 lvm /home nvme1n1 259:0 0 2.9T 0 disk └─nvme1n1p1 259:4 0 2.9T 0 part └─vg_data01-lv_data01 253:3 0 5.8T 0 lvm /data nvme0n1 259:1 0 2.9T 0 disk └─nvme0n1p1 259:3 0 2.9T 0 part └─vg_data01-lv_data01 253:3 0 5.8T 0 lvm /data [root@localhost ~]# df -Th | awk '$2 !~ /overlay/ && $2 !~ /tmpfs/' 文件系统 类型 容量 已用 可用 已用% 挂载点 /dev/mapper/openeuler-root ext4 69G 45G 21G 69% / /dev/sda2 ext4 974M 72M 835M 8% /boot /dev/sda1 vfat 599M 5.8M 594M 1% /boot/efi /dev/mapper/openeuler-home ext4 365G 4.6G 342G 2% /home /dev/mapper/vg_data01-lv_data01 ext4 5.8T 4.3T 1.3T 78% /data
[root@localhost ~]# cat /etc/os-release NAME="openEuler" VERSION="22.03 LTS" ID="openEuler" VERSION_ID="22.03" PRETTY_NAME="openEuler 22.03 LTS" ANSI_COLOR="0;31" [root@localhost ~]# uname -a Linux localhost.localdomain 5.10.0-60.18.0.50.oe2203.aarch64 #1 SMP Wed Mar 30 02:43:08 UTC 2022 aarch64 aarch64 aarch64 GNU/Linux [root@localhost ~]# lscpu 架构: aarch64 CPU 运行模式: 64-bit 字节序: Little Endian CPU: 192 在线 CPU 列表: 0-191 厂商 ID: HiSilicon BIOS Vendor ID: HiSilicon 型号名称: Kunpeng-920 BIOS Model name: HUAWEI Kunpeng 920 5250 型号: 0 每个核的线程数: 1 每个座的核数: 48 座: 4 步进: 0x1 Frequency boost: disabled CPU 最大 MHz: 2600.0000 CPU 最小 MHz: 200.0000 BogoMIPS: 200.00 标记: fp asimd evtstrm aes pmull sha1 sha2 crc32 atomics fphp asimdhp cpuid asimdrdm jscvt fcma dcpop asimddp asimdfhm ssbs Caches (sum of all): L1d: 12 MiB (192 instances) L1i: 12 MiB (192 instances) L2: 96 MiB (192 instances) L3: 192 MiB (8 instances) NUMA: NUMA 节点: 8 NUMA 节点0 CPU: 0-23 NUMA 节点1 CPU: 24-47 NUMA 节点2 CPU: 48-71 NUMA 节点3 CPU: 72-95 NUMA 节点4 CPU: 96-119 NUMA 节点5 CPU: 120-143 NUMA 节点6 CPU: 144-167 NUMA 节点7 CPU: 168-191 Vulnerabilities: Itlb multihit: Not affected L1tf: Not affected Mds: Not affected Meltdown: Not affected Spec store bypass: Mitigation; Speculative Store Bypass disabled via prctl Spectre v1: Mitigation; __user pointer sanitization Spectre v2: Not affected Srbds: Not affected Tsx async abort: Not affected [root@localhost ~]# free -h total used free shared buff/cache available Mem: 1.5Ti 12Gi 26Gi 20Mi 1.4Ti 1.5Ti Swap: 4.0Gi 12Mi 4.0Gi
NPU/GPU信息
由于没有部署任何AI、模型,所以空载着
[root@localhost ~]# npu-smi info +------------------------------------------------------------------------------------------------+ | npu-smi 24.1.rc1 Version: 24.1.rc1 | +---------------------------+---------------+----------------------------------------------------+ | NPU Name | Health | Power(W) Temp(C) Hugepages-Usage(page)| | Chip | Bus-Id | AICore(%) Memory-Usage(MB) HBM-Usage(MB) | +===========================+===============+====================================================+ | 0 910B3 | OK | 89.7 35 0 / 0 | | 0 | 0000:C1:00.0 | 0 0 / 0 3159 / 65536 | +===========================+===============+====================================================+ | 1 910B3 | OK | 88.6 38 0 / 0 | | 0 | 0000:C2:00.0 | 0 0 / 0 3159 / 65536 | +===========================+===============+====================================================+ | 2 910B3 | OK | 91.8 36 0 / 0 | | 0 | 0000:81:00.0 | 0 0 / 0 3159 / 65536 | +===========================+===============+====================================================+ | 3 910B3 | OK | 87.2 36 0 / 0 | | 0 | 0000:82:00.0 | 0 0 / 0 3159 / 65536 | +===========================+===============+====================================================+ | 4 910B3 | OK | 88.8 41 0 / 0 | | 0 | 0000:01:00.0 | 0 0 / 0 3159 / 65536 | +===========================+===============+====================================================+ | 5 910B3 | OK | 95.7 44 0 / 0 | | 0 | 0000:02:00.0 | 0 0 / 0 3159 / 65536 | +===========================+===============+====================================================+ | 6 910B3 | OK | 93.5 39 0 / 0 | | 0 | 0000:41:00.0 | 0 0 / 0 3160 / 65536 | +===========================+===============+====================================================+ | 7 910B3 | OK | 89.2 40 0 / 0 | | 0 | 0000:42:00.0 | 0 0 / 0 3160 / 65536 | +===========================+===============+====================================================+ +---------------------------+---------------+----------------------------------------------------+ | NPU Chip | Process id | Process name | Process memory(MB) | +===========================+===============+====================================================+ | No running processes found in NPU 0 | +===========================+===============+====================================================+ | No running processes found in NPU 1 | +===========================+===============+====================================================+ | No running processes found in NPU 2 | +===========================+===============+====================================================+
开始部署DeepSeek
ollama方法
根据网上资料看,只要用ollama部署就行,后面发现这个行不通。因为ollama只适配了英伟达的GPU,像华为的根本就行不通啊,
ollama的安装脚本也是去下载英伟达的驱动,结果就是下载失败,就算下载成功了也不能安装上去
https://zhuanlan.zhihu.com/p/22081569918
0
最后折腾了很久
使用 nohup ollama run
部署一个1.5B的试试,发现可以运行了。但是总觉得不对境。回答问题太慢了,用时3分钟。CPU使用率也是狂飙。NPU是一点没有使上劲啊
ollama run deepseek-r1:1.5b
容器部署方法
最后决定下载权重+容器部署。结果这里就有遇到了坑点
需要用到git lfs 工具 和 华为的镜像。因为这是ARM服务器,所有git lfs命令也很难找,欧拉的yum源还没有提供,最后翻来覆去在github最新的V3.6.1找到了。使用二进制命令接安装脚本既可以实现。这样就能通过git install ,git push 去拉取近1TB的权重了
https://github.com/git-lfs/git-lfs/releases
再说说这个华为的镜像吧,不得不吐槽。华为这是把镜像当宝贝供着吗,下载还需要申请权限,不是一般人还申请不下来。还好我们这里条件都满足
晚上提交的申请,第二天早上就通过了
最后参照了好几个教程,不是启动失败,就吃出现权限拒绝,服了
华为服务器社区:https://www.hiascend.com/software/modelzoo/models/detail/68457b8a51324310aad9a0f55c3e56e3
天翼云社区: https://www.ctyun.cn/document/10027724/10944583
部署R1模型提示不兼容…
天翼云社区: https://www.ctyun.cn/document/10027724/10944583
部署R1模型提示不兼容…
到此这篇关于华为昇腾920b服务器部署DeepSeek翻车现场演示的文章就介绍到这了,更多相关昇腾920b服务器部署DeepSeek内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!