news 2025/12/30 10:42:39

最简单的LangChain和RAG

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
最简单的LangChain和RAG

ollama的API:https://docs.ollama.com/api/ps
ollama的API:https://github.com/ollama/ollama/blob/main/docs/api.md?utm_source=chatgpt.com

Ollama API ├── 推理类(最常用) │ ├──/api/generate ← 单轮生成 │ ├──/api/chat ← 多轮对话 │ └──/api/embed ← 向量 embedding │ ├── 模型管理 │ ├──/api/tags ← 已有模型 │ ├──/api/pull ← 下载模型 │ ├──/api/push ← 推送模型 │ ├──/api/create ← 构建模型 │ └──/api/delete← 删除模型 │ ├── 运行控制 │ ├──/api/show ← 模型信息 │ └──/api/ps ← 当前运行模型 │ └── 底层服务 └──/api/version ← Ollama 版本
curl http://localhost:11434/api/tags
curl http://localhost:11434/api/generate \ -X POST \ -H "Content-Type: application/json" \ -d '{"model":"deepseek-r1:7b","prompt":"用一句话解释什么是UNet","stream":false}'

//这个将会是流式的

curl http://localhost:11434/api/chat \ -X POST \ -H "Content-Type: application/json" \ -d '{"model":"deepseek-r1:7b","messages":[{"role":"system","content":"你是一个AI老师"},{"role":"user","content":"解释什么是UNet"}]}'

//这会在ollama中创建一个my-deepseek的model,它来自eepseek-r1:7b,与它的区别是,以后每次问题问题之前都会自动加上一句你是AI工程师。

POST/api/create{"name":"my-deepseek","modelfile":"FROM deepseek-r1:7b\nSYSTEM 你是AI工程师"}

//把input的字符串通过embed模型,转换成ebbedding

curl http://localhost:11434/api/embed -X POST -H "Content-Type: application/json" \ -d '{"model":"nomic-embed-text","input":"UNet 是什么"}'

一个最小的LangChain

//环境准备

curl-fsSL https://ollama.com/install.sh | shollama serve//开启服务ollama pull deepseek-r1:7b ollama run deepseek-r1:7b pip install langchain langchain-community ollama pull nomic-embed-text//embedding 模型

//代码

from langchain_community.llms import Ollama # 连接本地 ollama llm=Ollama(model="deepseek-r1:7b",base_url="http://localhost:11434")# 最简单的调用 response=llm.invoke("用一句话解释什么是卷积神经网络")#不会暴露 thinking 不会暴露 context 只拿到responseprint(response)

一个最小的RAG

用LangChain做RAG,读取本地数据
//环境准备

curl-fsSL https://ollama.com/install.sh | shollama serve//开启服务ollama pull deepseek-r1:7b ollama run deepseek-r1:7b pip install langchain langchain-community langchain-text-splitters faiss-cpu ollama pull nomic-embed-text//embedding 模型

//代码

from langchain_community.llms import Ollama from langchain_community.document_loaders import TextLoader from langchain_text_splitters import RecursiveCharacterTextSplitter from langchain_community.embeddings import OllamaEmbeddings from langchain_community.vectorstores import FAISS from langchain.chains import RetrievalQA OLLAMA_URL="http://localhost:11434"README_PATH="/home/yqw/tt/ai/README.md"#1.LLM(你原来那套) llm=Ollama(model="deepseek-r1:7b",base_url=OLLAMA_URL)#2.读取 README.md loader=TextLoader(README_PATH)documents=loader.load()#3.切分文档 splitter=RecursiveCharacterTextSplitter(chunk_size=500,chunk_overlap=100)documents=splitter.split_documents(documents)#4.Embedding embeddings=OllamaEmbeddings(model="nomic-embed-text",base_url=OLLAMA_URL)vectorstore=FAISS.from_documents(documents,embeddings)#5.构建 QA 链 qa=RetrievalQA.from_chain_type(llm=llm,retriever=vectorstore.as_retriever(),chain_type="stuff")#6.提问 question="README.md 这个项目是做什么的,同时介绍一下吴亦凡的现状?"result=qa.invoke({"query":question})answer=result["result"]print("Q:",question)print("A:",answer)
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/17 21:41:53

金仓数据库KingbaseES:从兼容到超越,打造企业级数据库新标杆

兼容是对企业历史投资的尊重是确保业务平稳过渡的基石然而这仅仅是故事的起点在数字化转型的深水区,企业对数据库的需求早已超越“语法兼容”的基础诉求。无论是核心业务系统的稳定运行,还是敏感数据的安全防护,亦或是复杂场景下的性能优化&a…

作者头像 李华
网站建设 2025/12/21 16:31:24

关于AI工具实战测评的技术

AI工具实战测评框架设计测评AI工具需要从多个维度展开,包括功能实用性、性能表现、易用性、适用场景等。以下为技术测评的核心框架和具体方法。功能覆盖与核心能力测试AI工具的核心功能是否与宣传一致。例如自然语言处理工具需验证文本生成、翻译、摘要等能力&#…

作者头像 李华
网站建设 2025/12/17 21:38:15

Web Worker 处理图像:将 Canvas 像素处理移出主线程的实现

Web Worker 处理图像:将 Canvas 像素处理移出主线程的实现 大家好,今天我们来深入探讨一个在现代前端开发中越来越重要的技术主题——如何利用 Web Worker 将 Canvas 图像像素处理任务从主线程中剥离出来。这不仅能够显著提升用户体验,还能避…

作者头像 李华