客户端
游戏
无障碍

0

评论

收藏

分享

手机看

微信扫一扫,随时随地看

【知识库特性增量】 DeepSeek-R1 模板支持 bge-m3 embedding model

图片
图片

为什么知识库需要

 Embedding Model?

通过询问 DeepSeek-R1 得到如下回答:


Embedding 模型的核心价值在于将非结构化文本转化为数值向量,解决语义理解与计算效率问题:


图片

语义编码:通过向量空间捕捉上下文关联,区分多义词、同义词;如:

问题:用户搜索“苹果”,需区分“水果”还是“品牌”。

Embedding 作用:

  -“苹果手机”的向量会接近“iPhone”“智能手机”;

   -而“红苹果”的向量会接近“水果”“香蕉”“维生素”。

结果:搜索“苹果”时,优先展示手机或水果,取决于用户历史行为(如点击电子产品)。

图片

高效检索:支持近似最近邻(ANN)算法,降低海量数据匹配复杂度;

场景:某电商平台有 1 亿商品描述,需实时匹配用户查询“适合露营的轻便帐篷”。

传统方法:关键词匹配“露营+轻便+帐篷”,可能漏掉“户外超薄遮阳篷”。

Embedding 方案:

    -将查询和商品描述转为向量;

    -使用 ANN 库(如 FAISS )在毫秒级返回

Top100 相关商品,覆盖语义相似但关键词不匹配的结果。


图片

 AI 基础设施:支撑 RAG 、多模态搜索、迁移学习等任务,替代传统关键词匹配与人工规则。

场景:客服机器人回答“如何清洁帐篷上的污渍?”

流程:用 BGE-M3 将问题编码为向量;

 -从向量数据库检索《户外用品保养指南》中相关段落;

 -将检索结果输入大模型(如DeepSeek-R1),生成步骤清晰的回答。

优势:避免大模型虚构答案,提升可信度。


图片

与传统方式相比具备优势

图片
图片

为什么选择 

bge-m3 Embedding 模型?

根据了解,BGE-M3 模型是当前领先的多语言 Embedding 模型,在 MIRACL、MKQA 等基准测试中排名第一,支持 100+ 语言,具备三大特性:

1.多语言性:覆盖 194 种语言训练,跨语言检索效果显著;

2.多功能性:统一支持密集、稀疏、多向量三种检索模式;

3.多粒度性:支持最长 8192 tokens 输入,适配长短文本。其训练采用知识蒸馏与高效批处理技术,结合 1.2 亿文本对与合成数据优化性能。


并且腾讯云其他 AI 应用中该模型使用的也较为广泛。本次,Cloud Studio 在DeepSeek-R1 模板中内置了 BAAI/bge-m3。希望给知识库玩家带来更加准确的召回效果,让工具更加实用。

图片
图片

如何在 

CloudStudio DeepSeek-R1 模板中设置 bge-m3

图片

步骤一 :

进入 Cloud Studio DeepSeek CPU 模板,唤起内置 Open-WebUI 或 AnythingLLM 组件。进入网站:

点击任意 DeepSeek CPU 模板进入工作空间, 唤起 Open-WebUI 或 AnythingLLM, 即刻拥有完全属于个人的知识库。相对于本地搭建 RAG 知识库,体验门槛直线降低!

图片

进入工作空间后,默认唤起 AnythingLLM  (4001端口),点击图中 icon ,进入浏览器全屏模式

图片

点击左下角【设置】

图片

进入【人工智能提供商】-【Embedder首选项】,在【嵌入引擎提供商】处选择“Ollama”,随后在下方【Ollama Embedding Model】处选择“bge-m3:latest”。

选择完毕后点击【保存更改】

图片


图片

步骤二:

创建【工作区】即可开始进一步构建知识库进行对话。这里重复介绍一下如何创建和设置知识库进行对话。


图片

上传文档

在聊天界面中,用户可以创建多个工作区。每个工作区可以独立管理文档和 LLM 设置,并支持多个会话(Thread),每个会话的上下文也是独立的。

图片

点击上传图标,可以管理当前工作区的知识库。以本地文档上传为例,用户可以管理已上传的文档,并通过下方的上传按钮或拖拽方式上传新文档。

图片

导入完成后,用户可以在 【Documents】 界面选中文件,并点击 【Move to Workspace】 将其添加到工作区。

图片

添加到工作区后,点击 【Save and Embeded】,将文档内容转换为向量检索所需的嵌入数据结构。

图片


图片

聊天模式

将文档添加到工作区后,用户可以通过设置聊天模式调整 DeepSeek-R1 的回复方式,在【工作区LLM提供者】处可选用 DeepSeek-R1模型类型,比如 7b 。


聊天模式:聊天 将提供 LLM 的一般知识 和 找到的文档上下文的答案。

查询模式:查询将仅提供找到的文档上下文的答案。

图片

在聊天窗口中,用户可以直接提问。deepseek-r1 会基于文档内容生成答案,并标注答案来源。


最后,我们来看看效果。

以 AnythingLLM 为例,在传入《微短剧行业深度分析报告》、与《 AIGC 与微短剧的结合》两份资料后,模型通过识别后者给出了相应的总结。

图片
图片

加入 Cloud Studio 自媒体特权计划

我们推出针对为 Cloud Studio 宣传的自媒体特权计划,招募长期合作的内容创作者,创作者将永久被授予 20000 分钟/月的基础版 GPU 使用配额。


20000分钟(333小时) 8+TFlops 算力、16GB+显存 的使用配额!什么概念!


可以系统化地利用 DeepSeek R1 模型实现从模型优化到实际落地的完整闭环。可生成数十万 10 万条营销文案、可提供稳定的高并发实时 API 服务。


心动吗?

还等啥呢?!

快来体验吧!!


图片

参与方式

扫码联系工作人员进行登记初审:

图片

入选标准

- 拥有自媒体账号,且输出稳定

- 过往具备 Cloud Studio 相关分享经验,且具备干货内容

- 长期使用 Cloud Studio 进行工作、学习


图片

希望创作者

2.  将实践经验以视频或文章的方式发布到任意媒体渠道(包括但不限于B站、抖音、小红书、个人博客等)。实践内容包含但不限于模型推理、创建知识库、构建个人应用等。每月至少分享两次。


注意:我们鼓励原创和真实,请不要抄袭、搬运他人内容。

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部