网站首页 > 精选文章 正文
IT之家 3 月 4 日消息,微软今日宣布,通过 Azure AI Foundry 接入 DeepSeek-R1 7B 和 14B 蒸馏模型,为 Copilot+ PC 提供本地运行 7B 和 14B 模型的能力。
早在今年 1 月,微软就宣布计划将 DeepSeek-R1 模型的 NPU 优化版本直接带到搭载高通骁龙 X 处理器的 Copilot+ PC 上。如今,这个承诺终于兑现。
IT之家从微软官方博客获悉,模型将从搭载高通骁龙 X 处理器的 Copilot+ PC 开始上线,随后是英特尔酷睿 Ultra 200V 和 AMD 锐龙的设备。
由于模型运行在 NPU 上,因此可以减少对 PC 电池续航和散热性能影响的同时,持续获得 AI 计算能力,CPU 和 GPU 将可用于执行其他任务。
微软强调,它使用了 Aqua 内部自动量化工具,将所有 DeepSeek 模型变体量化为 int4 权重。不幸的是,模型标记速度相当低。微软报告称,14B 模型的标记速度仅为 8 tok / 秒,而 1.5B 模型的标记速度接近 40 tok / 秒。微软提到,该公司正在进一步优化提高速度。
开发者可以通过 AI Toolkit VS Code 扩展在 Copilot+ PC 上下载和运行 DeepSeek 模型的 1.5B、7B 和 14B 版本。
猜你喜欢
- 2025-05-16 Llama 4系列模型
- 2025-05-16 OPPO Find N5与OPPO Find N3参数配置的详细对比
- 2025-05-16 PyTorch架构优化库torchao正式发布,可大幅提升AI模型效率
- 2025-05-16 Llama 4 大战 DeepSeek V3,全错翻车,我人都傻了
- 2025-05-16 一块小小的ISP,让明年旗舰机有了新的质变
- 2025-05-16 清华开源混合精度推理系统MixQ:大模型近无损量化并提升推理吞吐
- 2025-05-16 深入解读英伟达“HOPPER”GPU 架构
- 2025-05-16 一台3090就能跑Gemma 3 27B!谷歌发布Gemma 3全系QAT版模型
- 2025-05-16 刚刚,Llama 4深夜开源击败DeepSeek V3!2万亿多模态巨兽抢回王座
- 2025-05-16 为现代AI计算打造?IBM AIU芯片:5nm制程32核心,230亿个晶体管
- 最近发表
- 标签列表
-
- 向日葵无法连接服务器 (32)
- git.exe (33)
- vscode更新 (34)
- dev c (33)
- git ignore命令 (32)
- gitlab提交代码步骤 (37)
- java update (36)
- vue debug (34)
- vue blur (32)
- vscode导入vue项目 (33)
- vue chart (32)
- vue cms (32)
- 大雅数据库 (34)
- 技术迭代 (37)
- 同一局域网 (33)
- github拒绝连接 (33)
- vscode php插件 (32)
- vue注释快捷键 (32)
- linux ssr (33)
- 微端服务器 (35)
- 导航猫 (32)
- 获取当前时间年月日 (33)
- stp软件 (33)
- http下载文件 (33)
- linux bt下载 (33)