PrivateGPT:本地化RAG处理流程文档问答系统,确保数据隐私

PrivateGPT是一个可用于生产环境的AI项目,允许用户在没有互联网连接的情况下,使用大型语言模型(LLMs)对文档进行问答。该项目确保100%的数据隐私,所有数据都在用户的执行环境中处理,不会泄露。PrivateGPT由Zylon团队开发,提供了一个API,支持构建私有、上下文感知的AI应用。该项目遵循并扩展了OpenAI API标准,支持普通和流式响应。PrivateGPT适用于需要高度数据隐私的领域,如医疗和法律。

类似项目:Kotaemon:简单部署的开源多模态文档问答工具

PrivateGPT:使用GPT技术进行文档交互,确保数据隐私-1

 

功能列表

  • 文档摄取:管理文档解析、拆分、元数据提取、嵌入生成和存储。
  • 聊天与完成:使用摄取文档的上下文进行对话和完成任务。
  • 嵌入生成:基于文本生成嵌入。
  • 上下文块检索:根据查询返回摄取文档中最相关的文本块。
  • Gradio UI客户端:提供用于测试API的工作客户端。
  • 批量模型下载脚本、摄取脚本、文档文件夹监视等工具。

 

使用帮助

安装流程

  1. 克隆仓库:首先,克隆PrivateGPT的GitHub仓库。

   git clone https://github.com/zylon-ai/private-gpt.git
cd private-gpt
  1. 安装依赖:使用pip安装所需的Python依赖。

   pip install -r requirements.txt
  1. 配置环境:根据需要配置环境变量和设置文件。

   cp settings-example.yaml settings.yaml
# 编辑settings.yaml文件,配置相关参数
  1. 启动服务:使用Docker启动服务。

   docker-compose up -d

使用文档问答功能

  1. 文档摄取:将需要处理的文档放入指定的文件夹中,运行摄取脚本。

   python scripts/ingest.py --input-folder path/to/documents
  1. 问答交互:使用Gradio UI客户端进行问答交互。

   python app.py
# 打开浏览器访问http://localhost:7860

高层API使用

  1. 文档解析和嵌入生成:使用高层API进行文档解析和嵌入生成。

   from private_gpt import HighLevelAPI
api = HighLevelAPI()
api.ingest_documents("path/to/documents")
  1. 上下文检索和回答生成:使用高层API进行上下文检索和回答生成。

   response = api.chat("你的问题")
print(response)

低层API使用

  1. 嵌入生成:使用低层API生成文本嵌入。

   from private_gpt import LowLevelAPI
api = LowLevelAPI()
embedding = api.generate_embedding("你的文本")
  1. 上下文块检索:使用低层API进行上下文块检索。

   chunks = api.retrieve_chunks("你的查询")
print(chunks)

工具集使用

  1. 批量模型下载:使用批量模型下载脚本下载所需模型。

   python scripts/download_models.py
  1. 文档文件夹监视:使用文档文件夹监视工具自动摄取新文档。

   python scripts/watch_folder.py --folder path/to/documents

相关推荐

AI编程软件Trae中文版下载

AI工具盘点:国内AI工具百花齐放,涵盖文本、图像、语音等领域;国外AI工具技术前沿,涵盖3D建模、视频制作等。AI技术广泛应用,提升个人和企业生产力。

复旦大学出台AI工具使用规定:六项禁令引发学术界热议

复旦大学发布规定明确禁止本科毕业论文中使用AI工具生成原始数据、正文、致谢等内容,同时对AI翻译和润色工具提出限制。这一举措引发讨论,尤其是对于语言润色和翻译工具的合理性。专家认为,AI工具有助于提高语言表达准确性和流畅度,尤其对外语学生有重要支持作用。因此,合理引导AI工具使用,确保学术诚信与原创性,是未来教育的重点。

暂无评论

发表评论