avatar
文章
62
标签
21
分类
10

首页
标签
分类
归档
清单
  • 知识库
  • AI资源清单
AGI Explained
首页
标签
分类
归档
清单
  • 知识库
  • AI资源清单
一个基于RAG的对话系统的实现
发表于2024-03-06|LangChain|LangChain•RAG
RAG (Retrieval-Augmented Generation) 是一种结合了检索和生成的技术,用于增强对话系统的性能。在RAG对话系统中,模型首先根据用户的输入从知识库中检索相关信息,然后使用这些信息来生成响应。 下面是一个基于RAG的对话系统的示例,使用LangChain库来实现: 首先,确保已经安装了LangChain库。你可以使用以下命令来安装: 1pip install langchain 接下来,我们需要一个知识库来提供检索功能。在这个示例中,我们将使用一个简单的文本文件作为知识库。假设你有一个名为knowledge_base.txt的文本文件,其中包含了一些与对话相关的知识。 现在,我们可以开始编写代码来实现基于RAG的对话系统。 1234567891011121314151617181920212223242526272829from langchain.document_loaders import TextLoader from langchain.retrieval import ExactMatcher from langchain.generat ...
一个简单的LangChain docker环境
发表于2024-03-05|LangChain|LangChain•Docker
正在学习 LangChain,先搞了个简单的 LangChain docker 环境,方便后面进行 LangChain 代码开发、运行,也避免各种环境的杂乱无章。主要思路如下: 1、编写一个Dockerfile,包含 LangChain 开发必要的软件包 2、编写一个简单的docker compose 文件,可以在开发目录加载 LangChain 环境 一、Dockerfile123456789101112131415161718FROM python:3.9-slim-bullseyeRUN apt-get -y update && \ pip install --upgrade pip && \ pip install langchain && \ pip install langchain_openai && \ pip install "langserve[all]" && \ pip install datasets && \ pip insta ...
1…67
avatar
Eryx Lee
文章
62
标签
21
分类
10
Follow Me
最新文章
Vibe Coding2025-03-31
Xinference、Ollama 和 vLLM 比较2024-12-20
使用Xinference部署本地大模型2024-12-13
使用vLLM部署本地大模型2024-12-07
llama.cpp 编译使用2024-12-01
分类
  • FastAPI7
  • General1
  • LLM7
  • LangChain17
  • Prompt1
  • Pydantic1
  • Python21
  • pytest5
标签
SQLModel Vibe Coding ollama LLM Ollama pytest LangChain mkdocs Docker vLLM tools FastAPI Cache Xinference ruff Pydantic Python Celery llama.cpp RAG Prompt
归档
  • 三月 20251
  • 十二月 20244
  • 十一月 20246
  • 十月 20241
  • 九月 20241
  • 八月 20246
  • 七月 20247
  • 六月 20245
网站资讯
文章数目 :
62
本站访客数 :
本站总访问量 :
最后更新时间 :
©2023 - 2025 By Eryx Lee
框架 Hexo|主题 Butterfly
浙ICP备2024062350号-1