当前位置:首页 > 创业 > 正文

DeepSeek“卡爆了”如何解决?多家国产算力厂商已适配,主要面向推理

  • 创业
  • 2025-02-06 00:22:03
  • 9

  近期,资本市场最热的话题当属DeepSeek(深度求索)。从美国硅谷到中国街头巷尾,人们纷纷讨论着DeepSeek对AI大模型行业带来的巨大影响。

DeepSeek“卡爆了”如何解决?多家国产算力厂商已适配,主要面向推理

  DeepSeek话题的火热,也带动其官方网页和App访问量的上升。新用户的大量涌入令DeepSeek用户在使用其“深度思考”和“联网搜索”功能时常常遭遇“服务器繁忙”。不过好消息是,目前已有多家国产AI算力厂商宣布适配DeepSeek,比如华为昇腾、壁仞科技、天数智芯、摩尔线程、沐曦等。在不久的将来,流畅地使用DeepSeek的各种功能或许并不是一件难事。

  壁仞科技工作人员对《每日经济新闻》记者表示:“DeepSeek有结构上的微创新,但是还是LLM(大语言模型),所以推理适配起来并不难。”

  根据中信建投研报,DeepSeek的网页端访问量,从2024年10月至2024年12月,分别为245万、422万和1101万。DeepSeek于2025年1月10日上线官方App,自该App发布以来,第18天已达到1500万日活。

  2月4日,天数智芯官方微信号披露,在AI技术蓬勃发展的当下,芯片技术成为关键。DeepSeek R1的横空出世宛如一道闪电,强势冲破长期以来的技术壁垒,为中国AI行业注入全新活力。今日(2月4日),天数智芯与Gitee AI联合发布消息,在双方的高效协作下,仅用时一天,便成功完成了与DeepSeek R1的适配工作,并且已正式上线多款大模型服务,其中包括DeepSeek R1-Distill-Qwen-1.5B、DeepSeek R1-Distill-Qwen-7B、DeepSeek R1-Distill-Qwen-14B等。

  天数智芯副总裁宋煜2月5日对《每日经济新闻》记者表示:“天数智芯的产品是通用GPU,在芯片设计的技术路线上和国际主流路线相近,在软件生态层面,天数的IXUCA软件栈兼容国际主流生态,所以适配DeepSeek的V2、V3、R1、Janus等模型版本非常顺利。”

  据其介绍:“目前天数已经完成了V3、R1、Janus等模型的推理适配工作,在公开数据的精度测试上也和论文相当。适配成功后,天数也和Gitee AI、并行计算、算力互联等合作伙伴一起上线了多款大模型服务。”

  无独有偶,华为计算于2月4日表示,潞晨科技携手昇腾,联合发布基于昇腾算力的DeepSeek R1系列推理API及云镜像服务。2月5日,华为官方微信号披露,2025年2月4日,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上线昇腾社区,支持一键获取DeepSeek系列模型,支持昇腾硬件平台上开箱即用,推理快速部署,带来更快、更高效、更便捷的AI开发和应用体验。

  摩尔线程也于2月4日表示,作为国产全功能GPU创新企业,摩尔线程快速实现对DeepSeek蒸馏模型推理服务的高效部署,旨在赋能更多开发者基于摩尔线程全功能GPU进行AI应用创新。

  可以看出,无论华为昇腾、天数智芯还是摩尔线程,均针对DeepSeek推理服务进行适配。

  随着DeepSeek带来大模型访问量的暴增,推理芯片或将爆发。浙商证券认为,DeepSeek训练和推理成本大幅降低将带来大模型和用户侧准入门槛的同步降低,不仅带来同等预算下模型侧的迭代加速,“低成本+高性能”的模型也会加速推动企业和个人用户对AI Agent、AI应用等的使用,从而推动AI商业化落地进程的显著提速,在此背景下,推理环节的算力需求将得到激发。

  而算力厂商壁仞科技、云服务厂商优刻得也强调推理效率的重要性。壁仞科技认为,推理效率已成为目前行业各公司发展的核心竞争力。凭借壁仞科技自主研发的壁砺TM系列产品出色的兼容性能,仅用数小时即完成对DeepSeek R1全系列蒸馏模型的支持,涵盖了从1.5B到70B各等级参数版本,包括LLaMA蒸馏模型和千问蒸馏模型。为开发者提供高性能、低成本的大模型部署与开发解决方案。

  关于国产算力芯片适配DeepSeek的重要性,天数智芯副总裁宋煜表示:“目前,大模型生态上,训练部分主要依赖CUDA+NVIDIA GPU,国产GPU的适配仍需突破。与DeepSeek合作,能加速国产GPU芯片的深度学习框架优化、算子优化、分布式训练适配,降低国产AI企业的迁移成本,打造‘国产算力+国产大模型’的闭环生态。”

  宋煜认为:“DeepSeek等国产大模型厂商的成功,离不开强大的算力支持。我们的目标是提供稳定、可扩展、性价比高的GPU解决方案,推动国产大模型更快迭代、更高效部署。未来,我们可以进一步深化合作,包括联合优化AI训练框架、开发定制化AI加速方案,更高效的分布式推理引擎等。”

有话要说...