企业项目管理、ORK、研发管理与敏捷开发工具平台

网站首页 > 精选文章 正文

deepseek自己手机本地部署要怎么操作?

wudianyun 2025-07-09 18:02:16 精选文章 2 ℃

方案 1:使用 DeepSeek 官方 App

DeepSeek 已经推出了 官方 App(iOS/Android),你可以直接下载使用:

  • iOS:在 App Store 搜索 "DeepSeek Chat"
  • Android:在应用商店或官网下载 APK 安装

官方 App 目前免费,支持联网搜索、文件上传等功能,适合普通用户。


方案 2:本地部署开源大模型(需一定技术基础)

如果你想在 手机或本地设备 上运行类似 DeepSeek 的开源大模型(如 DeepSeek LLM 或其他开源 LLM),可以尝试以下方法:

1. 使用手机端 LLM 运行工具

  • MLC LLM / LLaMA.cpp:支持在手机(Android/iOS)上运行量化后的模型(如 DeepSeek-MoE, Llama3, Phi-3 等)。
  • Termux(Android):通过命令行运行轻量级 LLM(如 Alpaca、TinyLLaMA)。
  • iOS:使用 llama.cpp + 本地推理 App(如 "LLM Playground")。

2. 具体步骤(以 Android + Termux 为例)

  1. 安装 Termux(Android)
  2. 从 F-Droid 下载 Termux。
  3. 安装 Python 和依赖
  4. bash
  5. 复制
  6. 下载
  7. pkg update && pkg upgrade pkg install python git
  8. 下载轻量级 LLM(如 DeepSeek-MoE 或 TinyLLaMA)
  9. bash
  10. 复制
  11. 下载
  12. git clone https://github.com/mlc-ai/mlc-llm cd mlc-llm
  13. 运行量化模型
  14. bash
  15. 复制
  16. 下载
  17. python3 -m pip install transformers torch python3 app.py --model deepseek-ai/deepseek-moe-16b --quantization q4f16
  18. 注意:手机性能有限,建议选择 4-bit 量化小模型(如 DeepSeek-MoE-1.8B 或 Phi-3-mini)。

3. PC 本地部署(更强性能)

如果手机性能不足,可以在 电脑(Windows/Mac/Linux) 上运行,然后通过 局域网 API 让手机访问:

bash

复制

下载

python -m transformers.run --model deepseek-ai/deepseek-llm-7b --device cpu

然后手机浏览器访问 http://<电脑IP>:8000。


方案 3:使用 API 自建服务

如果你希望 自托管 DeepSeek API(如果未来开放):

  1. 等待 DeepSeek 开源 API 代码(目前官方未开放)。
  2. 使用类似 FastChat + vLLM 部署:
  3. bash
  4. 复制
  5. 下载
  6. pip install "fschat[model_worker,vllm]" python -m fastchat.serve.controller python -m fastchat.serve.model_worker --model-path deepseek-ai/deepseek-llm-7b
  7. 手机通过 HTTP 请求 调用本地 API。

总结

方案

适合人群

难度

性能

官方 App

普通用户

云端高性能

手机本地 LLM

极客/开发者

性能受限

PC 本地 + 手机访问

技术用户

较好

自托管 API

高级用户

最佳

如果你只是想要 手机端使用 DeepSeek,建议直接下载 官方 App
如果想
本地部署开源模型,可以尝试 MLC-LLMllama.cpp 方案。

你有具体需求(如特定模型或设备)吗?我可以帮你推荐更合适的方案!

Tags:

最近发表
标签列表