①DeepSeek有望推动AI软件应用的加速爆发。包括当虹科技、安恒信息在内的科创板软件公司宣布加入DeepSeek“朋友圈”; ②短期内,DeepSeek的低成本训练方法可能降低特定项目的算力需求;但长期来看,AI应用的普及将不可避免推动算力需求的增长。
《科创板日报》2月6日讯(记者 邱思雨 陈俊清) 一场由国产大模型DeepSeek掀起的“风暴”席卷了整个春节假期,凭借“低成本、高性能”的技术优势,DeepSeek成为全球科技市场关注的焦点。
随着DeepSeek热度飙升,从云服务巨头到本土芯片厂商、AI应用企业等,众多企业纷纷加入其“朋友圈”。阿里云、百度智能云、华为云、腾讯云等国内云巨头相继接入。多家本土芯片厂商如摩尔线程、海光信息等也纷纷响应,宣布支持DeepSeek模型。安恒信息、当虹科技、万兴科技等软件厂商也接入DeepSeek模型,融合其相关功能。
▍多家科创板软件公司宣布接入DeepSeek
“DeepSeek打破了AI训练的高成本壁垒,有助于推动AI技术的普及和深化,促进AI软件的多样化和创新。”中国人工智能产业发展联盟工作组专家高泽龙接受《科创板日报》记者采访时表示,“DeepSeek的低成本训练方法为AI软件的优化和升级提供了新的思路和方法。通过借鉴DeepSeek的训练技巧和技术手段,AI软件开发者可以更加高效地构建和优化自己的模型。”
浙商证券分析师廖静池也认为,DeepSeek全面开源策略、知识蒸馏突破及极具吸引力的API定价等有望推动AI软件应用的加速爆发。
自AI浪潮席卷整个科技产业以来,众多软件厂商迅速投身其中,它们不仅纷纷接入AI大模型,更在打造并推出各具特色的垂类大模型,而在这场DeepSeek掀起的AI“风暴”中,它们也并未缺席。近日,多家在科创板上市的软件公司宣布与DeepSeek相关合作业务。
其中,当虹科技宣布其BlackEye多模态视听大模型完成DeepSeek深度融合,并完成视听传媒、工业与卫星、车载智能座舱等多行业垂类场景的数据调优训练。
“集成DeepSeek-R1后,能够显著提升传媒文化领域内容生产、审核、推荐和用户体验等方面的效率与质量;在车载智能座舱领域,DeepSeek的模型推理能力大幅提升BlackEye多模态视听大模型在座舱娱乐与智能驾驶等方面的能力。”当虹科技方面表示,“公司以更低的成本实现‘DeepSeek+视听+行业端侧’的大模型应用。”
奇安信宣布其安全智能体已接入DeepSeek平台。“通过DeepSeek的优化和蒸馏技术,公司不仅大幅降低了运营成本,还显著提升了模型在处理威胁检测和响应速度上的性能。”奇安信方面表示。另一安全厂商安恒信息也宣布旗下恒脑·安全垂域大模型集成DeepSeek,发布了首个“DeepSeek版”安全智能体。
办公软件龙头厂商金山办公也正与Deepseek进行对接测试。有接近金山办公的人士对《科创板日报》记者表示,双方未来是否合作取决于后续发展。
除上述科创板上市公司外,另一软件厂商万兴科技证券部相关人士亦对《科创板日报》记者表示,“接入DeepSeek大模型后,公司旗下软件亿图图示在响应能力方面有所提升。万兴PDF文本解析和文档解释功能愈发高效。其产品部门评估后,认为对用户体验等方面有所提升。但接入时间较短,难以观察对用户数量等方面的影响。”
“DeepSeek不仅降低了开发和部署AI应用的成本门槛,还推动了AI算法的创新和优化。”天使投资人、资深人工智能专家郭涛在接受《科创板日报》记者采访时表示,“DeepSeek的高效架构和强大性能为开发者提供了更多的可能性,使他们能够创建更加智能、响应更快的软件。此外,它还促进了AI技术的民主化,使得小型企业和独立开发者也能够利用先进的AI技术,从而加速了整个行业的创新步伐。”
▍DeepSeek对算力芯片需求影响几何
凭借“低成本、高性能”的显著优势,DeepSeek对AI软件应用领域的推动作用毋庸置疑。不过,随着训练成本的大幅降低,这一变化对于本土芯片厂商乃至整个AIDC产业链影响几何?当下市场各方众说纷纭,看法大相径庭。
浙商证券分析师廖静池在相关研究中表明,DeepSeek大模型的“低成本+高性能”特点表明有限算力也能够实现较强的模型能力,或为本土算力发展带来机遇。
纵观各家算力与芯片厂商的最新动态,各方踊跃加入DeepSeek“朋友圈”,积极开展适配工作。
近日,海光信息宣布其DCU成功适配DeepSeek-Janus-Pro多模态大模型。该公司证券部工作人员向《科创板日报》记者表示,“海光信息与本土算力上下游企业进行适配优化,体现了海光DCU的生态优势和技术能力。”不过,对于DeepSeek训练成本低对算力方面的影响,该工作人员并未进行回复。
云天励飞DeepEdge10“算力积木”芯片平台完成与DeepSeekR1系列模型适配。该公司向《科创板日报》记者表示,“适配后,公司的DeepEdge10系列芯片与加速卡可为模型运行提供硬件支撑,推动DeepSeek在各类边缘硬件和场景的应用。”
摩尔线程同样实现对DeepSeek蒸馏模型推理服务的部署。“通过DeepSeek提供的蒸馏模型,能够将大规模模型的能力迁移至更小、更高效的版本,在国产GPU上实现高性能推理。”摩尔线程方面表示。
与DeepSeek达成合作的中国芯片企业还包括硅基流动、华为昇腾、壁仞科技、沐曦、天数智芯。
一家AI上市公司管理人员向《科创板日报》记者透露,多家算力芯片厂商均在春节期间完成了适配工作。“由于DeepSeek本身是开源的,因此适配并不会耗费太多时间,一般在一周左右。”
对算力需求的影响层面,《科创板日报》记者以投资者身份致电龙芯中科证券部,其相关工作人员表示,“DeepSeek低训练成本的特点目前并未给公司需求端带来直接影响。”
除以上提及的国内芯片厂商外,包括像英伟达、AMD、Intel等国际芯片巨头也均选择与DeepSeek合作。英特尔表示,与DeepSeek合作,有助于打破行业垄断,也为DeepSeek的发展提供了新的硬件合作方向。
不仅如此,亚马逊AWS与微软Azure近日也陆续宣布接入DeepSeek模型。亚马逊表示,DeepSeek-R1模型现已可在AmazonWebServices上使用,该公司首席执行官安迪・贾西鼓励用户大胆使用。
“目前主流观点有两种,一方面DeepSeek通过创新的训练方法,如:AI知识蒸馏(Distillation),实现了低训练成本。这种方法使得模型训练不再依赖于超算或核电站级别的服务器,从而可能减少了对大规模算力的直接需求;另一方面,随着DeepSeek的流行和AI应用的指数级增长,更多的企业和个人可能会投入到AI模型的训练和部署中,这反过来又会加大对算力的总体需求。”中国人工智能产业发展联盟工作组专家高泽龙接受《科创板日报》记者采访时表示。
在高泽龙看来,这两种观点并不矛盾,“这主要反映了算力需求在不同层面和阶段的变化。在短期内,DeepSeek的低成本训练方法可能会降低特定项目的算力需求;但在长期和更广泛的范围内,AI应用的普及和深化将不可避免地推动算力需求的增长。”
天风证券分析师吴开达以瓦特改良蒸汽机为例进行了分析。“1759年瓦特改良蒸汽机后,反而使得更高效的蒸汽机广泛使用,英国煤炭总消耗指数上升。这种现象可能也适用于算力需求。”吴开达分析道。
因此,随着成本的降低,AI应用的采用可能会呈指数级增长,推理环节的算力需求或将爆发。吴开达认为,“今后算力需求变动的核心是看‘算力成本压缩’的斜率高,还是‘算力使用’的指数增长快。”