拜读维拉科技关于机器人相关信息的综合整理,涵盖企业排名、产品类型及资本市场动态:一、中国十大机器人公司(综合类)优必选UBTECH)聚焦人工智能与人形机器人研发,产品覆盖教育、娱乐及服务领域,技术处于行业前沿。DeepSeek在昇腾上的模型部署的常见问题及解决方案机器人中科院旗下企业,工业机器人全品类覆盖,是国产智能工厂解决方案的核心供应商。埃斯顿自动化国产工业机器人龙头,实现控制器、伺服系统、本体一体化自研,加速替代外资品牌。遨博机器人(AUBO)协作机器人领域领先者,主打轻量化设计,适用于3C装配、教育等柔性场景。埃夫特智能国产工业机器人上市第一股,与意大利COMAU深度合作,产品稳定性突出。二、细分领域机器人产品智能陪伴机器人Gowild公子小白:情感社交机器人,主打家庭陪伴功能。CANBOT爱乐优:专注0-12岁儿童心智发育型亲子机器人。仿真人机器人目前市场以服务型机器人为主,如家庭保姆机器人(售价10万-16万区间),但高仿真人形机器人仍处研发阶段。水下机器人工业级产品多用于深海探测、管道巡检,消费级产品尚未普及。DeepSeek在昇腾上的模型部署的常见问题及解决方案资本市场动态机器人概念股龙头双林股份:特斯拉Optimus关节模组核心供应商,订单排至2026年。中大力德:国产减速器龙头,谐波减速器市占率30%。金力永磁:稀土永磁材料供应商,受益于机器人电机需求增长。行业趋势2025年人形机器人赛道融资活跃,但面临商业化落地争议,头部企业加速并购整合。四、其他相关机器人视频资源:可通过专业科技平台或企业官网(如优必选、新松)获取技术演示与应用案例。价格区间:服务型机器人(如保姆机器人)普遍在10万-16万元,男性机器人13万售价属高端定制产品。
2024年12月26日,DeepSeek-V3横空出世,以其卓越性能备受瞩目。该模型发布即支持昇腾,用户可在昇腾硬件和MindIE推理引擎上实现高效推理,但在实际操作中,部署流程与常见问题困扰着不少。
本文将为你详细阐述昇腾DeepSeek模型部署的优秀实践。
昇腾DeepSeek模型部署的常见问题及解决方案见:
DeepSeek在昇腾上的模型部署 - 常见问题及解决方案
https://modele.cn/updates/zh/modelers/20250226-deepseek-bestprce-acend-deploy-part2/
01 硬件要求及组网
推荐参考配置如下,部署DeepSeek-V3/R1量化模型至少需要多节点Atlas 800I A2(8*6)服务器。
本方案以DeepSeek-R1为主进行介绍,DeepSeek-V3与R1的模型结构和参数量一致,部署方式与R1相同。
02 运行环境准备
推荐使用镜像部署
1、镜像部署
昇腾官方在Ascend hub提供环境示例镜像,含推理部署配套软件以及模型运行脚本,用户可参考构建运行环境镜像进行部署。
镜像部署及启动参照ModelZoo指南中“加载镜像”章节,该指南中还包含“容器启动”等指引:
https://gie.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#加载镜像
镜像申请/下载(含于上述指南):
https://www.hiascend.com/developer/ascendhub/detl/af85b724a7e5469ebd7ea13c3439d48f
2、裸机部署
根据MindIE安装指南安装软件包和运行依赖软件。
安装指南:
根据指南安装全部软件包和环境
https://www.hiascend.com/document/detail/zh/mindie/100/envdeployment/instg/mindie_instg_0001.html
模型获取:
https://modelers.cn/models/MindIE/DeepSeek-R1
03 权重文件准备
BF16权重下载:https://modelers.cn/models/State_Cloud/DeepSeek-V3-BF16
INT8量化后权重下载:https://modelers.cn/models/State_Cloud/DeepSeek-R1-W8A8/tree/main
如已下载BF16模型,也可采用以下步骤进行模型量化,权重BF16->INT8转换预计7~8小时。
git clone https://gitee.com/ascend/msit.git
cd msit/msmodelslim
bash install.sh
Step2: 运行量化命令
cd msit/msmodelslim/example/DeepSeek/
quant_deepseek_w8a8.py
--model_path {浮点权重路径}
--save_path {W8A8量化权重路径}
更多详细量化请参考 DeepSeek量化文档 https://gitee.com/ascend/msit/tree/br_noncom_MindStudio_8.0.0_POC_20251231/msmodelslim/example/DeepSeek
Msmodelslim代码仓 https://gitee.com/ascend/msit/tree/br_noncom_MindStudio_8.0.0_POC_20251231/msmodelslim
04 运行前检查
服务器检查:https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#前置准备 软件版本配套检查,含:HDK、N、PTA、MindIE、MindStudio 1、检查组网链接状态 a)检查物理链接for i in {0..7}; do hccn_tool -i $i -lldp -g | grep Ifname; done b)检查链接情况for i in {0..7}; do hccn_tool -i $i -link -g ; done c)检查网络健康情况for i in {0..7}; do hccn_tool -i $i -net_health -g ; done d)查看侦测ip的配置是否正确for i in {0..7}; do hccn_tool -i $i -netdetect -g ; done e)查看网关是否配置正确for i in {0..7}; do hccn_tool -i $i -gateway -g ; done f)检查NPU底层tls校验行为一致性,建议全0for i in {0..7}; do hccn_tool -i $i -tls -g ; done | grep switch g)# NPU底层tls校验行为置0操作for i in {0..7};do hccn_tool -i $i -tls -s enable 0;done
2、根据组网设置准备rank_table_file.json
使用多节点推理时,需要将包含设备ip,服务器ip等信息的json文件地址传递给底层算子。参考如下格式,配置rank_table_file.json:
05 模型部署与配置
独立模型: https://modelers.cn/models/MindIE/DeepSeek-R1
服务化部署:
1、运行指南 https://modelers.cn/models/MindIE/DeepSeek-R1/blob/main/REME.md(服务化测试)
2、服务启动 https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0004.html
3、指引 https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0062.html
06 模型运行
1、纯模型测试
模型脚本已预制在镜像中,参照以下链接即可拉起精度测试及模型测试https://modelers.cn/models/MindIE/DeepSeek-R1/blob/main/README.md (纯模型测试部分)
2、服务化测试
1. 运行指南 https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/MindIE/LLM/DeepSeek/DeepSeek-R1#服务化测试
2. 服务启动 https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0004.html
3. 常用接口指引 https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0062.html
全部评论
留言在赶来的路上...
发表评论