零基础一键部署 DeepSeek 全模型,小白也能轻松搭建

零基础一键部署 DeepSeek 全模型,小白也能轻松搭建

最近 DeepSeek 非常火,不管是代码生成、写作辅助还是数据分析,它都表现不俗。虽然你可以直接用官网或 App 体验,但如果你想离线使用、更快响应、无限制对话,最好的方式就是:本地部署!


零基础一键部署 DeepSeek 全模型

打造你的本地 AI 助手,离线可用,无需科学上网!

最近 DeepSeek 非常火,不管是代码生成、写作辅助还是数据分析,它都表现不俗。虽然你可以直接用官网或 App 体验,但如果你想离线使用、更快响应、无限制对话,最好的方式就是:本地部署!

今天就教你,一键部署 DeepSeek 所有模型,小白用户也能 10 分钟搞定!


第一步:安装 Ollama —— 本地 AI 模型管理器

DeepSeek 模型需要一个运行平台,推荐使用 Ollama。它免费开源,而且真正实现了「一键运行」。

安装步骤:

  1. 打开 Ollama 官网,点击下载,双击安装包。

  2. 安装完成后它会在后台运行,无界面,任务栏中可看到图标。

  3. 打开终端(CMD),输入:

    1
    ollama

    如果出现提示说明安装成功。


第二步:下载 & 导入 DeepSeek 模型

✅ 离线一键导入(推荐,无需科学上网):

  1. 下载 DeepSeek 模型全集压缩包(可能几个 GB,耐心等待)。

  2. 解压后,右键管理员运行“一键导入脚本”

  3. 按提示:

    • 输入模型保存路径(建议磁盘空间充足)
    • 选择要导入的模型(如:7b 14b 32b,可多选)
  4. 稍等片刻,模型就自动导入成功了!

✅ 在线下载命令(需良好网络):

  • 下载 7B 模型:

    1
    ollama pull deepseek-r1:7b
  • 下载 14B 模型:

    1
    ollama pull deepseek-r1:14b
  • 下载「和谐版模型」:

    1
    ollama pull huihui_ai/deepseek-r1-abliterated:14b

模型硬件推荐清单(按需选择)

模型参数 推荐配置 适用场景
1.5B 4核CPU / 8GB内存 / 无需显卡 入门使用、轻量问答
7B 8核CPU / 16GB内存 / 8GB显卡 中等任务、对话系统
14B 12核CPU / 32GB内存 / 16GB显卡 长文生成、专业任务
32B 16核CPU / 64GB内存 / 24GB显卡 企业部署、大模型对话
70B+ 高端服务器集群 AGI研究、科研用途

第三步:本地使用 DeepSeek 模型

✅ 控制台交互(最简洁)

打开终端,输入:

1
ollama run deepseek-r1:7b

之后你就可以像和 ChatGPT 聊天一样,输入问题、得到回答。

✅ 图形界面方式(推荐小白)

使用免费开源前端工具:AnythingLLM

  1. 下载 AnythingLLM

  2. 安装并运行,跳过初始化模型部分。

  3. 进入“设置 > 聊天设置”,如下填写:

    • 提供者选择:Ollama
    • 模型名称:deepseek-r1:7b(或你导入的模型名)
  4. 点击保存,即可在图形界面使用!

✅ 浏览器网页端方式

配合浏览器插件 Page Assist 使用:

  1. 安装 Page Assist 插件(可搜“鼠标博客版”或在插件市场找)

  2. 打开插件主页,进入“设置 > 一般设置”

    • 语言设为中文
    • 模型设置为 DeepSeek
  3. 回到主页聊天界面,开始提问!


🔐关于“和谐版模型”

官方 DeepSeek 模型对敏感内容有限制。如果你希望模型“开放回答”,可以使用网友提供的“和谐版模型”。使用方法与官方模型一致,只是下载命令不同(详见上文命令部分)。


✅ 总结

通过 Ollama + DeepSeek 的组合,哪怕是普通电脑用户,也能:

  • 一键运行 AI 模型
  • 离线对话无需联网
  • 不限次数、不卡画质
  • 自由扩展,安全私密

现在就试试看,做自己的 AI 掌控者!