Lobe Chat 是一个开源的、UI 精致、功能强大的 LLM 聊天系统,支持多模型、多会话、多插件,完美适配 OpenAI、Claude、Gemini、Ollama 等主流模型。相比其他工具,Lobe Chat 更强调用户体验和扩展性,提供了对话变量、Prompt 模版、角色预设等高级功能,既适合个人使用,也适合团队打造专属 Copilot。
随着 MCP 架构在各类 AI 应用中的兴起,Lobe Chat 正成为开发者构建具备上下文感知、多模型调用和插件集成能力的前端入口,扮演着“人类交互层”的关键角色。
核心功能:
- 多模型与 RAG 支持:灵活接入 OpenAI、Claude、Gemini、本地模型,并集成知识库检索与上下文引用。
- MCP 插件市场支持:内置 MCP 插件商店,可快速导入 Agent 功能与工具调用接口。
- 功能调用系统:支持函数调用插件协议,可跨模型触发外部操作流程。
部署与集成:支持一键免费部署私有聊天应用,可通过 Docker、Vercel 等方式进行自托管部署,快速搭建服务,支持通过 API 集成外部系统。
你可以用 Lobe Chat 来做什么?
- 一键部署自己的多模型助手
通过简单配置,你就能将多个本地或云端模型(如 Llama3、Qwen、GPT-4、Claude)接入 Lobe Chat,实现模型随时切换、统一对话体验。支持记忆、角色设定、插件调用——比 ChatGPT 更自由,还能私有部署。
- 搭建带插件能力的 AI Copilot
Lobe Chat 支持插件调用链,你可以配置插件连接数据库、搜索引擎、工具 API 等。当用户问“把这份表格导入 Notion 并汇总”时,模型可以自动调用插件完成操作,实现更强的多轮交互与任务执行。
- 打造可共享的 AI 应用界面
不只是聊天,Lobe Chat 还能快速构建 Prompt 工具和自定义 Agent 应用。通过分享链接或嵌入页面的方式,把一个智能问答场景快速发布给他人使用,适合内部工具或面向客户的轻量化产品。