DeepSeek作为近期备受瞩目的人工智能软件,想必许多用户都有所了解。在使用过程中,大家可能会遇到各种各样的问题。接下来,小编将为大家详细介绍DeepSeek使用过程中的常见问题,感兴趣的用户不妨和小编一同探讨,希望能对屏幕前的小伙伴们有所帮助。

《DeepSeek》使用常见问题汇总
1、deepseek网页、app、调用api以及本地部署之间存在哪些区别?
①网页和app本质上并无差异,app其实就是套壳形式。
②api调用是借助接口进行通信,其实际能力和网页使用时并无不同。
③本地部署所部署的并非满血的deepseek - r1,而是蒸馏模型,能力相对较弱。其中32b模型理论上具备满血r1 90%的能力。
2、酒馆具体是什么?
酒馆指的是SillyTavern,它是一个前端页面,需要调用模型的api或者ollama来使用ai模型。
3、破限的含义是什么?
ai自身存在道德墙和道德限制,破限是突破ai内容审查的一种手段,通过一系列提示词来绕过ai的内容审查。
4、为什么我的ai回复到一半就被撤回了?
这是因为你的回答涉及到了敏感话题,被二次审查过滤掉了。
5、若我的ai存在道德限制,该如何绕开?
你可以使用群文件里的穿甲弹(考虑到大群本身不允许相关讨论,若想获取更多相关资源,可前往无禁群)。
6、英伟达部署的ai是否为满血状态?
英伟达部署的ai是满血671b,但ai响应速度会比正常的deepseek官方慢,尤其是在处理长文时更为明显。
7、deepseek是否存在上下文限制?能否突破这一限制?
存在上下文限制。例如,在cherry中调用api时,可以在模型设置中快捷修改上下文数。
8、我该如何进行本地部署?
具体详情可参考B站up主:NathMath的视频,视频编号为BV1NGf2YtE8r。
DeepSeek R1 推理模型 完全本地部署教程:
9、本地部署时,怎样选择最适合我的模型大小?
可参考上一条NathMath的视频。简单来讲,当你拥有独立显卡(最好是N卡)时,内存大小与显存大小之和就是最合适的模型大小,选择与之最相近的模型即可。比如,你使用的是4050(8G显存) + 16G内存,那么选择14b模型较为合适。
10、在cherry studio里面链接好之后该怎么做?
在cherry studio里设置好链接后,回到主界面,主界面上方可选择模型。英伟达的deepseek名为deepseek - ai/deepseek - r1。
11、.md格式的文件该如何使用?
.md格式文件是用Markdown格式编写的纯文本文件,建议安装Typora来查看和编辑此类文件,当然vs code也能打开这类文件。
12、Git和nodejs可以安装在其他盘吗?
最好不要这样做,否则后续进行其他配置时可能会出现报错。
13、360纳米ai里面的deepseek是满血的吗?
不是,该版本连32b都未达到,性能较差,不建议使用。
14、为什么我的ai越往后运行越慢?
这是因为ai的计算量会随着文本量的增加而递增,越用越慢属于正常现象,你可以新开一个对话。
15、ds在对话中输出纯空白是由什么原因导致的?
这是由于受到了外网攻击。
16、对话记录最多能保存多长时间?
若使用api,对话记录保存在你使用的api软件里,也就是本地,只要你不删除文件,保存时长是无限的。而网页版或app版至今未出现删除情况,具体保存时间尚不明确。
17、网页版或者APP版是671b吗?
是的。
18、chatbox这些可以直接接入api吗?
目前无法调用官网api。

