您现在的位置是:深圳市东方朗云科技有限公司 > 产品中心
腾讯新开源!WeKnora:轻松搭建本地AI知识库,让文档检索智能又安全
深圳市东方朗云科技有限公司26-05-10【产品中心】1人已围观
简介WeKnora 是腾讯开源的基于大语言模型的智能文档处理框架,支持本地化部署,可高效构建安全可控的 AI 知识库,适用于企业知识管理、科研分析等多场景。 以下是详细介绍:项目背景与定位背景:腾讯此前推出的多端应用 ima 虽支持多模型,但缺乏 API 且需手动上传文档,内容更新与工作流配置不便。WeKnora 的开源填...
WeKnora 是腾讯开源的基于大语言模型的智能文档处理框架,支持本地化部署,可高效构建安全可控的 AI 知识库,适用于企业知识管理、科研分析等多场景。 以下是详细介绍:
项目背景与定位- 背景:腾讯此前推出的多端应用 ima 虽支持多模型,但缺乏 API 且需手动上传文档,内容更新与工作流配置不便。WeKnora 的开源填补了这一空白,提供更灵活的本地化解决方案。
- 定位:专为结构复杂、格式多样的文档场景设计,通过模块化架构整合多模态预处理、语义索引、智能召回与大模型推理,实现高效可控的文档问答流程。
- 模块化设计:覆盖文档解析、向量化处理、检索引擎与大模型推理四大环节,各组件可独立配置与扩展,形成“理解—检索—回答”完整流水线。
- RAG 机制:通过检索增强生成技术,将上下文片段与大模型结合,提升回答的精准性与可靠性。
- 精准理解:支持 PDF、Word、图片等多格式文档的结构化内容提取,统一构建语义视图。
- 智能推理:依托大模型实现上下文感知与意图理解,支持精准问答及多轮对话。
- 灵活扩展:解析、嵌入、召回、生成全流程解耦,便于集成第三方服务或自定义功能。
- 混合检索:结合关键词、向量及知识图谱策略,优化检索效率与结果相关性。
- 安全可控:支持本地或私有云部署,数据自主管理,避免隐私泄露风险。
- 易用性:提供 Web 界面与标准 API,降低使用门槛,快速上手。
- 企业知识管理:内部文档检索、制度问答、操作手册查询,降低培训成本。
- 科研文献分析:论文检索、报告分析,加速文献调研与决策。
- 产品技术支持:产品手册问答、故障排查,提升客户服务效率。
- 法律合规审查:合同条款检索、法规查询,降低法律风险。
- 医疗知识辅助:医学文献检索、病例分析,辅助临床决策。
- 文档格式支持:PDF、Word、Txt、Markdown 及图片(含 OCR 识别)。
- 嵌入模型:兼容本地模型或 BGE/GTE API,支持自定义嵌入。
- 向量数据库:可选 PostgreSQL(pgvector)或 Elasticsearch,按需切换。
- 检索机制:支持 BM25、向量检索及 GraphRAG,可组合召回、重排与生成。
- 大模型集成:支持 Qwen、DeepSeek 等模型,可通过本地(Ollama)或外部 API 调用。
- 问答能力:上下文感知、多轮对话,支持提示词模板与链式问答。
- 测试与部署:提供端到端测试工具,支持本地或 Docker 部署,适配离线场景。
- 用户界面:Web UI 与 RESTful API 结合,兼顾易用性与开发者友好性。
- 环境准备:安装 Docker、Docker Compose 及 Git。
- 安装步骤:
克隆仓库:git clone https://github.com/Tencent/WeKnora.git,进入项目目录。
配置环境变量:复制 .env.example 为 .env 并修改配置项。
启动服务:运行 ./scripts/start_all.sh 或 make start-all(可选先启动 ollama serve)。
停止服务:执行 ./scripts/start_all.sh --stop 或 make stop-all。
- 访问服务:
Web UI:http://localhost
后端 API:http://localhost:8080
链路追踪(Jaeger):http://localhost:16686
- 零代码部署:上传知识即可在微信生态中快速启用“即问即答”功能。
- 高效管理:支持高频问题分类与数据工具,保障回答稳定性与可维护性。
- 初始化配置:通过 Web UI 引导完成配置,支持清空数据表后重新编译启动。
- 知识库管理:
拖拽上传多类文档,自动识别结构并提取核心知识,构建索引。
实时显示处理进度与状态,便于监控。
- 文档知识图谱:将文档转化为语义关联网络,提升检索结构化支撑与结果覆盖度。
- MCP 服务器调用:结合工具链直接调用 WeKnora 能力,扩展应用场景。
很赞哦!(316)