本文对比分析了Transformer架构与RAG系统中的Embedding本质区别。Transformer的Embedding仅作为模型的输入层,负责将离散符号映射为连续向量;而RAG的Embedding是一个完整的编码模型(如BERT),可独立提供语义检索服务。前者是模型的组成部分,后者是能单独对外服务的主力军,理解这一区别对掌握大模型和RAG系统架构至关重要。
先讲结论:Transformer的Embedding是模型的输入层,RAG的Embedding是一个完整的编码模型(如BERT),用于语义检索。
具体来说,Transformer架构中的Embedding,是整个Transformer模型的初始输入处理模块,是模型的输入层。在标准的Transformer架构中,Embedding层的作用是将输入的离散符号(如单词、子词)映射为连续的向量表示。
RAG中的Embedding是RAG系统中的一个子模块,是一个完整的编码模型(如BERT),用于语义检索。
在RAG框架中,Embedding是指用于检索的Embedding模型,它通常是一个独立的、完整的Transformer编码器(如BERT)。核心作用是实现文本与向量的语义映射:知识库构建阶段,把业务知识文本进行语义编码,向量化,该向量会存向量数据库;检索问答阶段,把用户的问题进行语义编码,向量化,该向量用于从向量数据库中检索语义最相似的向量,精准定位与用户问题相关的业务知识片段
字有点多,来张图:
可以看到RAG中的Embedding是一个模型,在RAG系统中是一个独立的子模块。
再看一张RAG系统中Embedding模型的架构图:
从图上可以看到,Transfromer架构中的Embedding组件只是其中的一个部分。
总结一下:
Transformer的Embedding,是一个架构的组件,是一个模型的组成部分,不能单独对外提供服务。
RAG系统中的Embedding,是一个模型,可以单独对外提供服务。
简单的讲,Transformer的Embedding在模型里打下手,RAG的Embedding在外面当主力。
如何学习AI大模型?
如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
这是一份大模型从零基础到进阶的学习路线大纲全览,小伙伴们记得点个收藏!
第一阶段:从大模型系统设计入手,讲解大模型的主要方法;
第二阶段:在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段:大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段:大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段:大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段:以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段:以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
100套AI大模型商业化落地方案
大模型全套视频教程
200本大模型PDF书籍
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
LLM面试题合集
大模型产品经理资源合集
大模型项目实战合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓