Vectara 聊天
Vectara 提供一个可信的生成式人工智能平台,使组织能够快速创建类似 ChatGPT 的体验(一个 AI 助手),该体验基于他们拥有的数据、文档和知识(从技术上讲,它是检索增强生成即服务)。
Vectara 无服务器 RAG 即服务提供了所有 RAG 组件,背后有一个易于使用的 API,包括:
- 从文件中提取文本的方法(PDF、PPT、DOCX 等)
- 基于机器学习的分块,提供最先进的性能。
- Boomerang 嵌入模型。
- 自有的内部向量数据库,用于存储文本块和嵌入向量。
- 一个查询服务,自动将查询编码为嵌入,并检索最相关的文本片段(包括对 混合搜索 和 MMR 的支持)
- 一个大型语言模型,用于基于检索到的文档(上下文)创建 生成摘要,包括引用。
有关如何使用 API 的更多信息,请参见 Vectara API 文档。
本笔记本展示了如何使用 Vectara 的 聊天 功能。
开始使用
要开始使用,请按照以下步骤操作:
- 如果您还没有帐户,请注册一个免费的 Vectara 帐户。完成注册后,您将获得一个 Vectara 客户 ID。您可以通过点击 Vectara 控制台窗口右上角的您的名字来找到您的客户 ID。
- 在您的帐户中,您可以创建一个或多个语料库。每个语料库代表一个存储文本数据的区域,这些数据来自输入文档的摄取。要创建语料库,请使用 "创建语料库" 按钮。然后为您的语料库提供一个名称和描述。您可以选择定义过滤属性并应用一些高级选项。如果您点击您创建的语料库,您可以在顶部看到其名称和语料库 ID。
- 接下来,您需要创建 API 密钥以访问语料库。在语料库视图中点击 "访问控制" 选项卡,然后点击 "创建 API 密钥" 按钮。为您的密钥命名,并选择您希望密钥是仅查询还是查询+索引。点击 "创建",您现在拥有一个有效的 API 密钥。请保密此密钥。
要将 LangChain 与 Vectara 一起使用,您需要这三个值:customer ID
、corpus ID
和 api_key
。
您可以通过两种方式将这些值提供给 LangChain:
- 在您的环境中包含这三个变量:
VECTARA_CUSTOMER_ID
、VECTARA_CORPUS_ID
和VECTARA_API_KEY
。
例如,您可以使用 os.environ 和 getpass 设置这些变量,如下所示:
import os
import getpass
os.environ["VECTARA_CUSTOMER_ID"] = getpass.getpass("Vectara Customer ID:")
os.environ["VECTARA_CORPUS_ID"] = getpass.getpass("Vectara Corpus ID:")
os.environ["VECTARA_API_KEY"] = getpass.getpass("Vectara API Key:")
- 将它们添加到
Vectara
向量存储构造函数中:
vectara = Vectara(
vectara_customer_id=vectara_customer_id,
vectara_corpus_id=vectara_corpus_id,
vectara_api_key=vectara_api_key
)
在这个笔记本中,我们假设它们在环境中提供。
<!--IMPORTS:[{"imported": "Vectara", "source": "langchain_community.vectorstores", "docs": "https://python.langchain.com/api_reference/community/vectorstores/langchain_community.vectorstores.vectara.Vectara.html", "title": "Vectara Chat"}, {"imported": "RerankConfig", "source": "langchain_community.vectorstores.vectara", "docs": "https://python.langchain.com/api_reference/community/vectorstores/langchain_community.vectorstores.vectara.RerankConfig.html", "title": "Vectara Chat"}, {"imported": "SummaryConfig", "source": "langchain_community.vectorstores.vectara", "docs": "https://python.langchain.com/api_reference/community/vectorstores/langchain_community.vectorstores.vectara.SummaryConfig.html", "title": "Vectara Chat"}, {"imported": "VectaraQueryConfig", "source": "langchain_community.vectorstores.vectara", "docs": "https://python.langchain.com/api_reference/community/vectorstores/langchain_community.vectorstores.vectara.VectaraQueryConfig.html", "title": "Vectara Chat"}]-->
import os
os.environ["VECTARA_API_KEY"] = "<YOUR_VECTARA_API_KEY>"
os.environ["VECTARA_CORPUS_ID"] = "<YOUR_VECTARA_CORPUS_ID>"
os.environ["VECTARA_CUSTOMER_ID"] = "<YOUR_VECTARA_CUSTOMER_ID>"
from langchain_community.vectorstores import Vectara
from langchain_community.vectorstores.vectara import (
RerankConfig,
SummaryConfig,
VectaraQueryConfig,
)
Vectara 聊天解释
在大多数使用 LangChain 创建聊天机器人的场景中,必须集成一个特殊的 memory
组件,该组件维护聊天会话的历史记录,然后利用这些历史记录确保聊天机器人了解对话历史。
使用 Vectara 聊天 - 所有这些都由 Vectara 在后台自动执行。您可以查看 聊天 文档以获取详细信息,了解其实现的内部机制,但使用 LangChain,您只需在 Vectara 向量存储中启用该功能即可。
让我们看一个例子。首先,我们加载 SOTU 文档(请记住,文本提取和分块都在 Vectara 平台上自动进行):
<!--IMPORTS:[{"imported": "TextLoader", "source": "langchain_community.document_loaders", "docs": "https://python.langchain.com/api_reference/community/document_loaders/langchain_community.document_loaders.text.TextLoader.html", "title": "Vectara Chat"}]-->
from langchain_community.document_loaders import TextLoader
loader = TextLoader("state_of_the_union.txt")
documents = loader.load()
vectara = Vectara.from_documents(documents, embedding=None)