解决 Langchain/ChromaDB 返回重复文档的问题

解决 Langchain/ChromaDB 返回重复文档的问题

本文旨在解决在使用 Langchain 和 ChromaDB 构建向量存储时,检索结果出现大量重复文档的问题。通过分析代码和问题原因,本文提供两种解决方案:一是避免重复插入文档到数据库,二是使用 EmbeddingsredundantFilter 过滤掉冗余的文档,从而确保检索结果的多样性和准确性。

在使用 Langchain 和 ChromaDB 构建向量数据库时,可能会遇到一个常见的问题:检索结果返回大量重复的文档。这通常是由于每次运行代码时,都将相同的文档重复插入到 ChromaDB 数据库中造成的。为了解决这个问题,可以采取以下两种方法。

避免重复插入文档

最直接的解决方案是避免每次运行代码时都重新创建向量数据库。ChromaDB 会将文档存储在磁盘上,因此每次执行 Chroma.from_documents 都会创建一个新的数据库,并将相同的文档再次插入。

以下是一些避免重复插入文档的方法:

  1. 只在首次运行时创建数据库: 可以添加一个条件判断,例如检查数据库文件是否存在,如果不存在则创建数据库并插入文档,否则直接加载已存在的数据库。

    import os from langchain.vectorstores import Chroma from langchain.embeddings import OpenAIEmbeddings  persist_directory = 'db' # 指定数据库存储目录  if not os.path.exists(persist_directory):     # 加载文档、分割文本等步骤...     # ...     vectorstore = Chroma.from_documents(documents=all_splits, embedding=OpenAIEmbeddings(), persist_directory=persist_directory)     vectorstore.persist() # 持久化存储 else:     vectorstore = Chroma(persist_directory=persist_directory, embedding_function=OpenAIEmbeddings())

    上述代码首先检查 db 目录是否存在。如果不存在,则执行文档加载、分割和向量化,并将结果存储在 db 目录中。如果 db 目录已经存在,则直接从该目录加载已存在的向量数据库。

  2. 注释掉插入数据库的代码: 如果你确定只需要插入一次数据,可以将 Chroma.from_documents 这行代码注释掉,只在首次运行时执行。

    # vectorstore = Chroma.from_documents(documents=all_splits, embedding=OpenAIEmbeddings()) # 注释掉这行代码

    这种方法简单直接,但需要手动控制数据库的创建和更新。

使用 EmbeddingsRedundantFilter 过滤冗余文档

如果无法避免重复插入文档,或者需要处理数据库中已经存在的重复文档,可以使用 Langchain 提供的 EmbeddingsRedundantFilter 来过滤掉冗余的文档。

EmbeddingsRedundantFilter 通过比较文档的嵌入向量来判断文档是否冗余。它需要先计算所有文档的嵌入向量,然后根据相似度阈值来过滤掉相似度过高的文档。

以下是使用 EmbeddingsRedundantFilter 的示例代码:

from langchain.document_transformers import EmbeddingsRedundantFilter from langchain.embeddings import OpenAIEmbeddings from langchain.chains import RetrievalQA from langchain.llms import OpenAI from langchain.vectorstores import Chroma  # 加载向量数据库 persist_directory = 'db' vectorstore = Chroma(persist_directory=persist_directory, embedding_function=OpenAIEmbeddings())  # 创建 EmbeddingsRedundantFilter embeddings = OpenAIEmbeddings() redundant_filter = EmbeddingsRedundantFilter(embeddings=embeddings)  # 创建检索器 retriever = vectorstore.as_retriever(search_type="similarity", search_kwargs={"k": 6})  # 使用 EmbeddingsRedundantFilter 过滤文档 docs = retriever.get_relevant_documents("What is X?") filtered_docs = redundant_filter.transform_documents(docs)  # 使用过滤后的文档进行问答 qa_chain = RetrievalQA.from_chain_type(     llm=OpenAI(),     chain_type="stuff",     retriever=vectorstore.as_retriever(),     return_source_documents=True )  result = qa_chain({"query": "What is X?"})  print(result["result"]) print(result["source_documents"])

注意事项:

  • EmbeddingsRedundantFilter 需要计算所有文档的嵌入向量,因此对于大型数据库来说,可能会比较耗时。
  • 可以调整相似度阈值来控制过滤的严格程度。
  • 确保 OPENAI_API_KEY 环境变量已正确设置。

总结:

通过避免重复插入文档或使用 EmbeddingsRedundantFilter 过滤冗余文档,可以有效解决 Langchain/ChromaDB 返回重复文档的问题,从而提高检索结果的质量和效率。选择哪种方法取决于具体的应用场景和需求。如果可以控制数据库的创建和更新,建议避免重复插入文档。如果无法避免重复插入,或者需要处理已经存在的重复文档,可以使用 EmbeddingsRedundantFilter。

© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享