kNN
在统计学中,k-最近邻算法 (k-NN) 是一种非参数监督学习方法,最早由
Evelyn Fix
和Joseph Hodges
于1951年开发,后来由Thomas Cover
扩展。它用于分类和回归。
本笔记本介绍了如何使用一个底层使用kNN的检索器。
主要基于Andrej Karpathy的代码。
<!--IMPORTS:[{"imported": "KNNRetriever", "source": "langchain_community.retrievers", "docs": "https://python.langchain.com/api_reference/community/retrievers/langchain_community.retrievers.knn.KNNRetriever.html", "title": "kNN"}, {"imported": "OpenAIEmbeddings", "source": "langchain_openai", "docs": "https://python.langchain.com/api_reference/openai/embeddings/langchain_openai.embeddings.base.OpenAIEmbeddings.html", "title": "kNN"}]-->
from langchain_community.retrievers import KNNRetriever
from langchain_openai import OpenAIEmbeddings
创建新的检索器与文本
retriever = KNNRetriever.from_texts(
["foo", "bar", "world", "hello", "foo bar"], OpenAIEmbeddings()
)
使用检索器
我们现在可以使用检索器了!
result = retriever.invoke("foo")
result
[Document(page_content='foo', metadata={}),
Document(page_content='foo bar', metadata={}),
Document(page_content='hello', metadata={}),
Document(page_content='bar', metadata={})]