《DeepSeek》使用问题全解析 《DeepSeek》使用常见问题汇总

发布时间:2025-06-20 09:53:39阅读:94414

DeepSeek作为近期备受瞩目的人工智能软件,想必许多用户都有所了解。在使用过程中,大家可能会遇到各种各样的问题。接下来,小编将为大家详细介绍DeepSeek使用过程中的常见问题,感兴趣的用户不妨和小编一同探讨,希望能对屏幕前的小伙伴们有所帮助。

DeepSeek相关图片

《DeepSeek》使用常见问题汇总

1、deepseek网页、app、调用api以及本地部署之间存在哪些区别?

①网页和app本质上并无差异,app其实就是套壳形式。

②api调用是借助接口进行通信,其实际能力和网页使用时并无不同。

③本地部署所部署的并非满血的deepseek - r1,而是蒸馏模型,能力相对较弱。其中32b模型理论上具备满血r1 90%的能力。

2、酒馆具体是什么?

酒馆指的是SillyTavern,它是一个前端页面,需要调用模型的api或者ollama来使用ai模型。

3、破限的含义是什么?

ai自身存在道德墙和道德限制,破限是突破ai内容审查的一种手段,通过一系列提示词来绕过ai的内容审查。

4、为什么我的ai回复到一半就被撤回了?

这是因为你的回答涉及到了敏感话题,被二次审查过滤掉了。

5、若我的ai存在道德限制,该如何绕开?

你可以使用群文件里的穿甲弹(考虑到大群本身不允许相关讨论,若想获取更多相关资源,可前往无禁群)。

6、英伟达部署的ai是否为满血状态?

英伟达部署的ai是满血671b,但ai响应速度会比正常的deepseek官方慢,尤其是在处理长文时更为明显。

7、deepseek是否存在上下文限制?能否突破这一限制?

存在上下文限制。例如,在cherry中调用api时,可以在模型设置中快捷修改上下文数。

8、我该如何进行本地部署?

具体详情可参考B站up主:NathMath的视频,视频编号为BV1NGf2YtE8r。

DeepSeek R1 推理模型 完全本地部署教程:

9、本地部署时,怎样选择最适合我的模型大小?

可参考上一条NathMath的视频。简单来讲,当你拥有独立显卡(最好是N卡)时,内存大小与显存大小之和就是最合适的模型大小,选择与之最相近的模型即可。比如,你使用的是4050(8G显存) + 16G内存,那么选择14b模型较为合适。

10、在cherry studio里面链接好之后该怎么做?

在cherry studio里设置好链接后,回到主界面,主界面上方可选择模型。英伟达的deepseek名为deepseek - ai/deepseek - r1。

11、.md格式的文件该如何使用?

.md格式文件是用Markdown格式编写的纯文本文件,建议安装Typora来查看和编辑此类文件,当然vs code也能打开这类文件。

12、Git和nodejs可以安装在其他盘吗?

最好不要这样做,否则后续进行其他配置时可能会出现报错。

13、360纳米ai里面的deepseek是满血的吗?

不是,该版本连32b都未达到,性能较差,不建议使用。

14、为什么我的ai越往后运行越慢?

这是因为ai的计算量会随着文本量的增加而递增,越用越慢属于正常现象,你可以新开一个对话。

15、ds在对话中输出纯空白是由什么原因导致的?

这是由于受到了外网攻击。

16、对话记录最多能保存多长时间?

若使用api,对话记录保存在你使用的api软件里,也就是本地,只要你不删除文件,保存时长是无限的。而网页版或app版至今未出现删除情况,具体保存时间尚不明确。

17、网页版或者APP版是671b吗?

是的。

18、chatbox这些可以直接接入api吗?

目前无法调用官网api。

排行榜