Deepseek满血版+联网搜索,目前最推荐的使用方式

2025-09-30 18:02:32

从春节到现在,Deepseek 简直火得一塌糊涂,哪里都能看到它的身影,哪里都听到关于它的各种传说。

Deepseek 火,也有一定的道理,开源,推理能力出众,性价比高,这三点就够了(不过也确实没想到火到这种程度,最近各大厂、企事业单位、中小学都在接入 Deepseek了)。

Deepseek 官方网站也因访问量过大经常没办法正常使用,最近身边的很多朋友都在询问我如何才能流畅地使用 Deepseek。干脆写一篇文章讲一讲我目前是如何正常使用 Deepseek R1 满血版的。

提醒一下,这篇文章不会涉及到:

Deepseek 的各种使用技巧

如何本地部署 Deepseek

一、开箱即用的方式

得益于 Deepseek 的影响力,各大厂商都开始把它集成在自家的产品里了。下面这几个产品都支持 Deepseek R1 满血版 + 联网搜索,是目前相对来说比较推荐的,直接可以使用,免费,速度也挺快,对于大部分场景应该是够用了。

秘塔搜索

访问地址:https://metaso.cn/

秘塔是比较早就在用的一个在线 AI 服务,它也是比较早支持 Deepseek R1 的,特点是它的联网搜索功能支持多种搜索范围(学术 / 文库 / 图片 / 播客),推荐。

腾讯元宝

访问地址:https://yuanbao.tencent.com/,网页版,直接打开即可使用,需登录。

腾讯 ima.copilot

地址:https://ima.qq.com/,这个是客户端或小程序版,客户端需下载到本地安装使用,需登录。

知乎直答

地址:https://zhida.zhihu.com/,网页版,特点是支持知识库,加上知乎自身的内容优势,应该有一些特点。

问小白

地址:https://www.wenxiaobai.com/,有网页版,也支持客户端

微信 AI 搜索

直接在微信里点击最上面的搜索,如果出来的界面中有 “AI搜索” 字样,就代表你已经可以在微信中直接使用 Deepseek R1 的满血版来搜索了。这应该是目前使用 Deepseek R1 最简单的一种方式。

好像现在这项功能还没有针对所有用户开放,不过也应该很快了。

更新:AI 领域,无论是大模型还是各类应用,进展都非常快阿,这篇文章出来没几天,又有不少直接支持 Deepseek R1 满血版的工具和应用了,大家自己多关注一下!

二、API + Page Assist

上面几种方式相信已经满足大部分的日常使用了,而且都还免费。

我自己日常使用 Deepseek R1 的方式稍有不同,采用的是 API + Page Assist 浏览器插件的方式,这种方式需要一些额外配置,API 也会涉及到一些费用,不过从个人使用的角度来说有下面几点优势:

支持可配置的联网搜索

支持本地知识库

更加灵活,方便切换其它大模型

如果你也有这几点诉求,可以按照我下面的手把手教程来进行配置。

1. 准备 API key

目前国内外其实有很多家服务商都在提供 Deepseek R1 的 API 服务支持了。国内的有火山引擎、腾讯云、硅基流动等;国外的有 fireworks.ai、nebius 等。

我自己使用下来,目前最推荐的是国内的火山引擎的提供 API 服务,服务稳定,速度也很快,下面所有的配置也是基于火山引擎提供的服务。

配置会涉及三部分内容:

6. API key 创建

7. 用于聊天的 Deepseek R1 推理接入点

8. 用于知识库的嵌入模型接入点

需要注意的,这里所使用的服务后面都会涉及到一定费用,所以大家最好自己评估一下是否适合自己的需求。

为了使用这里提到的所有 API 服务,首先需要注册,登录后还需要进行个人或企业实名认证。

火山引擎官方注册与登录入口:https://www.volcengine.com/

配置 API key

登录后在右上角选择 “控制台”,进入控制台页面,然后通过最左侧滑出菜单选择 “火山方舟” 进入火山方舟的控制台页面。你也可以直接通过链接:https://console.volcengine.com/ark/ 进入该页面。

在左侧菜单选择 “API Key 管理” ,点击 “创建 API Key”,根据提示创建 API Key。可以将 API Key 复制下来,后面配置会用到。

配置 Deepseek 推理接入点

仍然在前面的火山方舟控制台页面,左侧菜单选择 “在线推理” → “自定义推理接入点” → “创建推理接入点”。

我们需要创建两个推理接入点,一个是 Deepseek R1 推理大模型的接入点;一个本地知识库向量化会用到的嵌入模型接入点。

这里嵌入模型使用的是 Doubao-embedding-large 这个模型,对中英文的支持相对来说不错。

在接入点名称下方可以看到一串 ep-2025 打头的字符,这是接入点选择的模型 ID 号,也需要记下来,后面会用上。

2. 客户端配置

支持 API 的客户端其实有不少,在网上推荐比较多的是 Cherry Studio和ChatWise,这两个其实都不错,也都用过,Cherry Studio 还用得比较久,但这两个工具对我来说都有一点小问题。

Cherry Studio,支持本地知识库,但不直接支持联网搜索(更新:刚发的1.0.0版已支持联网搜索,不过目前只支持 tavily 搜索 API )。如果要联网搜索,可以配合火山引擎的关联应用来配置联网版的 Deepseek R1 API。

ChatWise,工具原生支持联网搜索配置,但客户端需要付费更新到 Pro 才能用。

直接后面遇到 Page Assist,一个开源的支持本地 AI 的浏览器插件(没错,Page Assist 并非独立的客户端应用),Chrome 和 Edge 浏览器都可以用,目前主力就是用它。

直接搜索引擎或插件市场搜索 Page Assist 就可以找到。

本文中,我并没有部署使用本地的大模型,如果感兴趣的话可以自己去尝试一下。

安装好后,打开该插件,就像是一个有点普通的支持 AI 会话的网页,我们还需要一些配置才能正常使用。

配置 API

在 Page Assit 界面右上方点击齿轮形状的配置按钮,打开配置页面。

左侧菜单栏点选 “OpenAI 兼容 API” → “添加提供商”,填入相关信息。

提供商名称:这个可以任意填

基础 URL:https://ark.cn-beijing.volces.com/api/v3

API 密钥:填入在前面创建的 API Key

管理模型

左侧菜单点选 “管理模型” → “添加新模型”,填入模型相关的信息。

模型 ID:前面推理接入点列表中模型名称下以 ep-2025 开头的一串字符

提供商:选择刚刚配置 API 时写的提供商名称

模型类型:Deepseek R1 就选聊天模型;Doubao Embedding Large 就选嵌入模型。

注意:我们需要添加两个新模型,一个是 Deepseek R1 推理模型,用于会话聊天的;一个是 Doubao Embedding Large 嵌入模型,用于本地知识库向量化的。

配置联网搜索

左侧菜单点选 “一般设置”,打开一般设置页面,在“管理网络搜索”区域选择合适的搜索引擎。

我平时使用的是 Google,搜索结果选的 10 条,默认不开启网络搜索,根据自己的需要配置即可。

Page Assist 支持多种搜索引擎,还支持一些 AI 搜索的 API 配置,选择不同的搜索引擎,对于联网搜索的结果会有比较大的影响,大家可以自己对比一下。

配置 RAG

如果要用本地知识库,还需要做两项配置,一个是配置文本嵌入模型;一个是创建自己的知识库。

配置文本嵌入模型

左侧菜单选择 “RAG 设置”,这里主要是设置文本嵌入模型,选择我们前面在模型管理里配置的嵌入模型,也就是我们前面申请的 Doubao Embedding Large 这个模型。

注:为了与本地知识库对话,所有上传到本地知识库的资料都需要进行向量化(简单理解就是转换成可以被大模型识别和处理的一种格式),不同的文本嵌入模型会直接影响到向量化的质量,尤其是对中文的处理,对比测试了一下,感觉 Doubao Embedding Large 这个嵌入模型对中英文的处理效果整体还不错。

创建自己的知识库

左侧菜单选择 “管理知识”,打开管理知识页面,选择 “添加新知识”,然后可以直接上传本地的资料,支持多种格式,我用得最多是 PDF 和 Markdown 文件。

直接使用 PDF 就可以,对于一些中文 PDF,如果为了质量更好,可以事先通过第三方工具把 PDF 转成 Markdown 格式,甚至做一些手动调整后,再上传到知识库。

开始使用

上面是一些必要的配置,然后就可以愉快地使用了。

在使用时,选择配置好的推理模型,也可以选择是否开启联网搜索,下面是一个简单的演示,Deepseek R1 + 联网搜索。

提示词:

提取练习对于学习有什么样的帮助?

Deepseek R1 + 联网搜索

本地知识库问答

要针对本地知识库进行检索问答,需要在输入区域选择并指定知识库,如下图所示。

下面是同样的问题(提示词),但限定通过我的知识库(知识库里是几篇相关的论文)里来检索推理的结果。

从下面思考的过程也可以看出,都是在我自己的本地知识库里检索的。

速度很快,效果也挺好的,而且在下方的引用中,你可以点击对应的 pdf,查看所引用的内容是什么,在 pdf 中哪一页多少行,整个溯源也很方便。

总结

若非极客或中小企业需要提供服务使用,并不建议本地部署 Deepseek R1 模型去使用,对于个人电脑来说,基本上不可能部署 671B 的满血版,而非满血的版本用起来感觉也没太大必要。

另外,能顺畅用起来只是第一步,如何更好地利用这些 AI 大模型或工具去帮助自己学习和工作才是关键,其实,哪怕没有 Deepseek,现有的很多其它 AI 服务,也很强大了,如果用好,对于工作和学习也会有很大的帮助。

后面大家感兴趣的话,再多给大家介绍一些我自己使用的一些实践经验。

更新

Cherry Studio 最新的 1.0.0 版已支持联网搜索,已添加

添加了知乎直答,也支持 Deepseek R1,而且直接知识库,效果挺好