基于 Cherry Studio / Chatbox 进行配置,绕开 DeepSeek 网页对话的卡顿。
需要特别说明的是,本文不涉及本地显卡部署方案,因为本地部署完整版 DeepSeek 对于个人使用者来说是一个伪需求,671B 的模型即便是 1-Bit 量化加载也需要约 84GB 的显存(模型参数量×量化位数/8),按显卡租赁的费用来算,每小时大概需要 8 块钱,而 1-Bit 量化模型基本不可用,满血版 DeepSeek(BF16)仅加载就需要 1342GB 显存,这意味着更高的租赁费用,对于个人来说投入和回报完全不成正比,所以使用 API 将是性价比最高的方案(各平台注册时都会赠送大量的 tokens:阿里 1000 万,百度 2000 万,硅基流动 2000 万)。
注意:当前说法不适用于需要数据隔离的场景(比如金融/医疗),仅针对日常需求。
主要原因有五点:
- 网页版(深度思考 - R1)由于访问过多经常服务器繁忙导致对话卡顿。
- 可以在多个平台间进行无缝切换(聊天记录会“同步”),这意味着当前服务瘫痪时可以直接更换平台,从而减少等待时间。
- 注册平台所赠送的 tokens 足以覆盖个人长期使用需求。
- 可以自定义系统消息(System message),拥有更多的定制空间(注意,官方并不建议在使用推理模型的时候添加系统消息,对于该点需谨慎使用)。
- 本地存储完整对话历史。
适用于电脑端,手机端可以尝试 Chatbox。
访问下载界面,选择合适的版本下载。
下载后打开,将看到一个清爽的界面,接下来点击左下角的 设置图标
:
如果已经获取了 DeepSeek 的 API(获取步骤),则从设置
- 模型服务
界面中选择 深度求索
,直接填充 API 密钥:
填写 API 密钥之后点击 检查
,随意使用一个模型:
显示 连接成功
就意味着 API 可用,此时点击右上角 开关按钮
,将其打开:
通过左边栏回到聊天界面,你可以在界面上方对平台/模型进行切换:
至此已经可以和 DeepSeek-R1 进行对话。
通过 设置
- 模型服务
- + 添加
:
参照下表填写对应平台信息,最终呈现如右图:
获取步骤 | API 域名 | 模型 - 聊天 | 模型 - 推理 | 设置 - 推理 | |
---|---|---|---|---|---|
硅基流动 | 图文 | https://api.siliconflow.cn | deepseek-ai/DeepSeek-V3 | deepseek-ai/DeepSeek-R1 | ![]() |
阿里云百炼 | 图文 | https://dashscope.aliyuncs.com/compatible-mode/v1/ | deepseek-v3 | deepseek-r1 | ![]() |
百度智能云/百度云千帆 | 图文 | https://qianfan.baidubce.com/v2/ | deepseek-v3 | deepseek-r1 | ![]() |
字节火山引擎 | 图文 | https://ark.cn-beijing.volces.com/api/v3/ | 访问推理点获取 | 访问推理点获取 | ![]() |
以 硅基流动
为例,在右侧卡片底端点击 添加
,对照上表输入模型 ID,然后点击保存。
填写 ID 后会自动复制填充 模型名称
和 分组名称
,你可以定义 分组名称
使其与同类模型同组。
在聊天界面左侧点击 设置
,可以修改 模型温度
和 上下文数
:
参数 上下文数
意味着每次传入的对话轮数,过高会消耗大量的输入 token(对话历史 + 当前输入),你需要根据自己的实际需求去调节它。
Caution
对于推理模型 deepseek-reasoner
,传入参数 temperature
、top_p
、presence_penalty
、frequency_penalty
、logprobs
、top_logprobs
均不会生效1,故无需纠结温度设置。
也可以遵循官方的部署建议2,将 deepseek-reasoner
的 temperature
默认设置为 0.6,以应对未来可能被允许的参数修改。
左下角 设置图标
-> 数据设置
-> 备份
:
左下角 设置图标
-> 默认模型
-> 默认助手模型
,从下拉框中进行选择:
左下角 设置图标
-> 默认模型
-> 默认助手模型右侧设置图标
:
将弹出类似于下方的界面,此时可以修改默认助手的模版:
根据系统下载对应版本的 APP3:
下面以电脑端进行演示,打开 Chatbox,点击 使用自己的 API Key 或本地模型
:
如果已经获取了 DeepSeek 的 API(获取步骤),则从打开的界面中选择 DeepSeeK API
,直接填充 API 密钥,然后点击 保存
:
至此已经可以和 DeepSeek-R1 进行对话。
通过以下任一入口添加(点击 添加自定义提供方
):
首次使用时界面 | 已有配置时入口 |
---|---|
![]() |
![]() |
参照下表填写对应平台信息,完成后点击保存,最终呈现如右图:
获取步骤 | API 域名 | 模型 - 聊天 | 模型 - 推理 | 设置 - 推理 | |
---|---|---|---|---|---|
硅基流动 | 图文 | https://api.siliconflow.cn/v1 | deepseek-ai/DeepSeek-V3 | deepseek-ai/DeepSeek-R1 | ![]() |
阿里云百炼 | 图文 | https://dashscope.aliyuncs.com/compatible-mode/v1 | deepseek-v3 | deepseek-r1 | ![]() |
百度智能云 | 图文 | https://qianfan.baidubce.com/v2 | deepseek-v3 | deepseek-r1 | ![]() |
字节火山引擎 | 图文 | https://ark.cn-beijing.volces.com/api/v3 | 访问推理点获取 | 访问推理点获取 | ![]() |
Note
上表中的图例将 上下文消息数量上限
设置成了无限,这意味着每次都会传入完整的对话历史,并且消耗大量的输入 tokens,你需要根据自己的实际需求去调节它。
以 硅基流动
为例,在 设置
的模型中输入新的模型名称,然后点击 +
号并保存。
Note
不同平台对于模型的标识可能不同。
点击 设置
,从下拉选项中选择需要切换的平台,然后点击 保存
。
设置
-> 其他
-> 数据备份
-> 勾选需要导出的内容 -> 导出勾选数据
:
默认情况为 1.0,实际使用可以遵循 DeepSeek 官方文档的建议,按使用场景设置:
场景 | 温度 |
---|---|
代码生成/数学解题 | 0.0 |
数据抽取/分析 | 1.0 |
通用对话 | 1.3 |
翻译 | 1.3 |
创意类写作/诗歌创作 | 1.5 |
Caution
对于推理模型 deepseek-reasoner
,传入参数 temperature
、top_p
、presence_penalty
、frequency_penalty
、logprobs
、top_logprobs
均不会生效1,故无需纠结。
可以遵循官方的部署建议2,将 deepseek-reasoner
的 temperature
默认设置为 0.6,以应对未来可能被允许的参数修改。
下一章:DeepSeek API 输出解析 - OpenAI SDK