本文旨在解决在使用 Langchain 和 ChromaDB 构建向量存储时,检索结果出现大量重复文档的问题。通过分析代码和问题原因,本文提供两种解决方案:一是避免重复插入文档到数据库,二是使用 EmbeddingsredundantFilter 过滤掉冗余的文档,从而确保检索结果的多样性和准确性。
在使用 Langchain 和 ChromaDB 构建向量数据库时,可能会遇到一个常见的问题:检索结果返回大量重复的文档。这通常是由于每次运行代码时,都将相同的文档重复插入到 ChromaDB 数据库中造成的。为了解决这个问题,可以采取以下两种方法。
避免重复插入文档
最直接的解决方案是避免每次运行代码时都重新创建向量数据库。ChromaDB 会将文档存储在磁盘上,因此每次执行 Chroma.from_documents 都会创建一个新的数据库,并将相同的文档再次插入。
以下是一些避免重复插入文档的方法:
-
只在首次运行时创建数据库: 可以添加一个条件判断,例如检查数据库文件是否存在,如果不存在则创建数据库并插入文档,否则直接加载已存在的数据库。
import os from langchain.vectorstores import Chroma from langchain.embeddings import OpenAIEmbeddings persist_directory = 'db' # 指定数据库存储目录 if not os.path.exists(persist_directory): # 加载文档、分割文本等步骤... # ... vectorstore = Chroma.from_documents(documents=all_splits, embedding=OpenAIEmbeddings(), persist_directory=persist_directory) vectorstore.persist() # 持久化存储 else: vectorstore = Chroma(persist_directory=persist_directory, embedding_function=OpenAIEmbeddings())
上述代码首先检查 db 目录是否存在。如果不存在,则执行文档加载、分割和向量化,并将结果存储在 db 目录中。如果 db 目录已经存在,则直接从该目录加载已存在的向量数据库。
-
注释掉插入数据库的代码: 如果你确定只需要插入一次数据,可以将 Chroma.from_documents 这行代码注释掉,只在首次运行时执行。
# vectorstore = Chroma.from_documents(documents=all_splits, embedding=OpenAIEmbeddings()) # 注释掉这行代码
这种方法简单直接,但需要手动控制数据库的创建和更新。
使用 EmbeddingsRedundantFilter 过滤冗余文档
如果无法避免重复插入文档,或者需要处理数据库中已经存在的重复文档,可以使用 Langchain 提供的 EmbeddingsRedundantFilter 来过滤掉冗余的文档。
EmbeddingsRedundantFilter 通过比较文档的嵌入向量来判断文档是否冗余。它需要先计算所有文档的嵌入向量,然后根据相似度阈值来过滤掉相似度过高的文档。
以下是使用 EmbeddingsRedundantFilter 的示例代码:
from langchain.document_transformers import EmbeddingsRedundantFilter from langchain.embeddings import OpenAIEmbeddings from langchain.chains import RetrievalQA from langchain.llms import OpenAI from langchain.vectorstores import Chroma # 加载向量数据库 persist_directory = 'db' vectorstore = Chroma(persist_directory=persist_directory, embedding_function=OpenAIEmbeddings()) # 创建 EmbeddingsRedundantFilter embeddings = OpenAIEmbeddings() redundant_filter = EmbeddingsRedundantFilter(embeddings=embeddings) # 创建检索器 retriever = vectorstore.as_retriever(search_type="similarity", search_kwargs={"k": 6}) # 使用 EmbeddingsRedundantFilter 过滤文档 docs = retriever.get_relevant_documents("What is X?") filtered_docs = redundant_filter.transform_documents(docs) # 使用过滤后的文档进行问答 qa_chain = RetrievalQA.from_chain_type( llm=OpenAI(), chain_type="stuff", retriever=vectorstore.as_retriever(), return_source_documents=True ) result = qa_chain({"query": "What is X?"}) print(result["result"]) print(result["source_documents"])
注意事项:
- EmbeddingsRedundantFilter 需要计算所有文档的嵌入向量,因此对于大型数据库来说,可能会比较耗时。
- 可以调整相似度阈值来控制过滤的严格程度。
- 确保 OPENAI_API_KEY 环境变量已正确设置。
总结:
通过避免重复插入文档或使用 EmbeddingsRedundantFilter 过滤冗余文档,可以有效解决 Langchain/ChromaDB 返回重复文档的问题,从而提高检索结果的质量和效率。选择哪种方法取决于具体的应用场景和需求。如果可以控制数据库的创建和更新,建议避免重复插入文档。如果无法避免重复插入,或者需要处理已经存在的重复文档,可以使用 EmbeddingsRedundantFilter。