设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
节点
飞墙
Follow
明白贴
工算小助手
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
求大佬指点, ai 加知识库的内部原理
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
奶茶店的奶茶到底健康吗?
›
「第一份工作决定了整个职业生涯」是真的吗
›
微信利用垄断地位作恶
›
成都 2026 年房价走势
›
rmx:给 Windows 换一个能用的删除
今日热议主题
北京/上海/苏州:视觉负责人/视觉算法工程
[日本招聘] 后端/全栈/AI/移动端 | 提供签
opus 4.6 已全量支持 🎁 Claude 免费送$2
花 4 个月和 3 万刀做了个 Agent 网页支持
追觅集团 | 热招岗位汇总
这下乐子大了,爱尔兰产奶粉基粉原料有问题
域名需要翻墙才能访问,是被墙了吗?
WO Mic 无法自动重连,想寻找替代方案或尝
假如你的工作效率提高了 10 倍,会发生什么
2.8 收山姆副卡
显示全部
|
最新评论
23 条回复
·
2626 次点击
11#
liuchengfeng1
初学
2025-2-20 09:56:43
我也想知道;例如我把我博客文章全部给 ai ,让 ai 根据我给它的数据,每次问它能找到对应的文章。该如何实现?最好能封装一个 api
12#
joyhub2140
初学
2025-2-20 09:57:18
模型貌似是无状态的,可以理解外靠外挂向量数据库来构建每一次的提问。 你每次问之前,外部程序都会先从自己的提问历史结合向量数据库构造出完整的上下文,再打包发给模型。 我之前还想调用 ollama 的 api ,想着应该会有个 token id 之类的,后面发现没有,想维持上下文,得把之前得提问历史也需要一并发过去给模型,相当于模型只是纯思考的机器,上下文还是得靠外部程序来构建。
13#
moyufjm123
小成
2025-2-20 09:57:37
小白问一下,那要是知识库很大,上下文很多,token 岂不是消耗很快?应该涉及多次问答会不会重复发送上下文?
14#
onevcat
初学
2025-2-20 09:58:15
RAG
15#
aloxaf
小成
2025-2-20 10:10:57
嵌入模型是用来把文字转成向量的,这样就可以把文字的相似度匹配转成向量的相似度匹配,这样一来更快,二来还能匹配语义上相似但实际不同的句子。
16#
xwayway
小成
2025-2-20 10:11:33
@moyufjm123 #12 会返回知识库的 top k ,不会整个知识库一起给到大模型
17#
chairuosen
小成
2025-2-20 10:12:21
小白再问一下,大语言模型是基于概率预测的,那即使有知识库,它一定能返回和知识库内容完全一样的结果么?比如让它基于条件选择合适的 row 并把知识库这一行完整返回来
18#
tool2dx
初学
2025-2-20 10:17:47
@chairuosen 我用 deepseek 试过,可以把知识库作为提示词一部分喂给他,基本上回答没啥问题,比别的 AI 模型要聪明。就是比较费 token 。
19#
aloxaf
小成
2025-2-20 10:17:55
@moyufjm123 > 那要是知识库很大,上下文很多,token 岂不是消耗很快? 理论上是的,但是一般来讲,只有被匹配到的一段文本(和它们的上下文)会被发送给 LLM ,而且很多工具只会发送匹配度最高的 N 段文本,当然代价就是准确性降低。 > 涉及多次问答会不会重复发送上下文? 会,但有的模型是支持缓存的,比如 OpenAI 和 DeepSeek 连续对话时会自动缓存上下文,命中缓存就有折扣。不过也有模型比如 Claude 和 Gemini 得手动触发缓存,很多工具压根就没有适配……
20#
tool2dx
初学
2025-2-20 10:21:03
@moyufjm123 如果知识库很大,会改用微调大模型,这方法不合适。这方法就是很消耗 token ,没办法。
下一页 »
1
2
3
/ 3 页
下一页
浏览过的版块
生活
返回顶部