今年年初,DeepSeek AI大模型横空出世,迅速成为科技圈的热门话题。与此同时,AI PC 也持续进化,步入新的发展阶段。对于众多科技发烧友而言,本地部署大模型的诱惑难以抵挡。相较于直接付费使用成熟 AI 应用,DeepSeek 的完全开源特性,让发烧友们热衷于在本地发挥硬件 AI 性能。
然而,在轻薄笔记本电脑领域,面对本地运行 DeepSeek 大模型这一挑战,不同品牌和平台的表现究竟如何?“轻薄笔记本电脑哪个牌子好”这一问题,也随着本地部署大模型的需求,成为消费者关注的重点。
我们找来当下较新的轻薄本,分别搭载了Intel酷睿Ultra9 285H处理器和AMD锐龙AI 9 HX370处理器的机型,它们都是各自平台轻薄本能搭载的最强处理器,定位上旗鼓相当。下面,就让我们一同测试不同平台在本地运行 DeepSeek 大模型的表现,看看“轻薄笔记本电脑哪个牌子好”。
一、测试平台介绍:各有优势 但都是最强移动处理器的竞争者
Intel酷睿Ultra9 285H处理器基于Arrow Lake架构,拥有6个性能核,8个能效核和2个低功耗能效核,一共16核心,性能核最大睿频频率为5.4GHz,拥有24MB高速缓存。它内建Intel锐炫140T显卡,包含8个Xe核心,同时还内置NPU,能够提供高达13 TOPS的算力。CPU+GPU+NPU全平台总算力达到99 TOPS,为本地运行大模型提供了很好的支撑。
AMD锐龙AI 9 HX370处理器基于Zen 5架构,4个Zen 5核心和8个Zen 5c核心,支持超线程技术,总共是12个核心24线程,最高加速频率为5.1GHz,拥有12MB的L2 高速缓存和24MB的L3 高速缓存。内建AMD Radeon 890M显卡,包含16个GPU核心。当然也有独立的NPU引擎,而且算力高达55 TOPS。
需要注意的是,Intel酷睿Ultra9 285H处理器的TDP高达45W,AMD锐龙AI 9 HX370处理器的TDP只有28W。当然,Intel和AMD都允许笔记本制造商根据具体产品设计,在一定范围内设定处理器功耗。
二、DeepSeek-R1模型测试:iGPU算力也可流畅运行本地部署的14B模型
Ollama是一个开源的大语言部署服务工具,只需iGPU即可部署大模型。此次测试就是基于Ollama框架,在本地部署DeepSeek-R1的蒸馏版模型,测试使用iGPU的运行效率。Ollama作为一个开源软件,功能依赖全球开发者的共同维护,会有一些特别的分支。
此次测试,专门找来了针对 intel 推理框架和AMD ROCm推理框架分别优化过的Ollama版本,更能体现Intel和AMD硬件在各自最佳环境下的运行效率。
(左侧为Intel酷睿Ultra9 285H运行截图,右侧为AMD锐龙AI 9 HX370运行截图)为了避免图形UI造成的延迟和对性能的影响,我们直接在命令行中同DeepSeek-R1:14B模型进行对话,准备了4个问题,分别是:
“你是谁?”最简单的问题,用来检查DeepSeek大模型是否正确工作。
“模仿李白的风格,写一首七律·登月。”简单的文字写作能力。
“一亿之内最大的质数是多少?”数学能力其实不是DeepSeek这种推理模型的长处,但也可以测试一下。
“帮我写一份5月份前往南疆的旅行攻略。”对DeepSeek的语义理解/推理能力和文字写作能力进行测试。
同样还对DeepSeek-R1大模型另外两个更小规模的蒸馏版本7B和1.5B,也都进行了测试,测试成绩汇总如下:
模型规模越小,执行速度越快,但相对的AI智力下降也非常明显,经常会出现无法回答或者先入死循环的状态。14B规模的模型的反应速度和回答准确率表现都比较优秀,在测试平台上运行效果非常好(但数学问题的回答准确度还是不太行)。
从测试结果上来看,Intel酷睿Ultra9 285H在针对Intel优化过的Ollama上的每秒token输出更高一些,在14B和7B规模模型中,对比AMD锐龙AI 9 HX370都有40%左右的领先,而在1.5B规模模型中,Intel平台仍有5%左右的优势。
从实际测试的结果上来看,针对Intel 优化过的框架确实拥有更好的支持,让Intel处理器的性能表现更强。
三、AI大模型能力测试:Deepseek-R1:14B模型编程已经实用
我们也测试了一下Deepseek-R1:14B模型在Intel酷睿Ultra9 285H处理器的轻薄本上实际表现,看看使用本地Intel iGPU算力来编程,效果如何。
首先安装了一个针对Intel酷睿Ultra处理器优化的AI应用工具:Flowy AI PC软件,然后在其中使用Deeoseek-R1:14B模型来编写一个基于HTML语言的贪吃蛇游戏。
按照Deepseek给出的操作说明,很容易就可以把这个由AI写出来的贪吃蛇游戏运行起来。Intel酷睿Ultra9 285H处理器搭配Deepseek-R1:14B模型,能力具备一定实用价值,可以帮助用户提高编程速度和工作效率。
四、总结:Intel 全力推广OpenVINO 效果已经开始展现
得益于DeepSeek的开源,让本地部署AI大模型变的前所未有的容易,即使是在轻薄本这种并不以性能见长的移动平台上,运行本地大模型也能有相当不错的性能表现。
在测试中,Intel酷睿Ultra9 285H处理器展现出相当强劲的实力,使用开源部署工具Ollama(Intel优化版),在本地部署DeepSeek-R1:14B,仅依靠CPU的算力,就可以实现接近10 Token/s的输出速度,比AMD锐龙AI 9 HX370处理器的输出高了40%以上,而且这个成绩还是在CPU实际功率相差接近一倍的情况下得出的。
这也从一个侧面说明,AI大模型的高效运行,不仅仅是硬件性能的问题,软件的适配同样重要,甚至比硬件性能更重要一些。
Intel全力推广OpenVINO成效初显,也许硬件的真实性能强弱难以量化比较,但从此次测试结果来看,Intel酷睿Ultra9 285处理器在用户实际使用中,确实能发挥出比AMD锐龙AI 9 HX370处理器更强的性能。再加上Intel连续举办的人工智能创新应用大赛,以资金鼓励开发者,使得基于OpenVINO的AI应用日益丰富,促进了AI生态系统的繁荣。
轻薄笔记本电脑哪个牌子好?对于科技爱好者而言,在选择轻薄笔记本电脑时,可以考虑搭载最新Intel处理器的品牌机型,不仅能享受到当下卓越的AI应用体验,更能率先拥抱未来AI计算的各种可能性。
编辑:侯宜均
海量资讯、精准解读,尽在新浪财经APP