Dify 也是近一年在开源 AI 应用平台中快速蹿红的项目。它一开始的定位是 “开箱即用的 LLM 应用开发框架”,但如今已经成长为一个支持多模型、多应用形态的 AI 工作台 ——你可以用它搭建聊天机器人、Agent 流程、RAG 系统,甚至是 AI Copilot,无需从零开发。
Dify 提供了几乎“即插即用”的方案:支持调用 OpenAI、Claude、Gemini 等主流模型,支持复杂的上下文设置和变量输入,还内置了数据集、工作流、插件等能力,让你能像搭建低代码系统一样构建 LLM 应用。
核心功能:
- 双向 MCP 支持:既能连接 MCP 服务器,也能作为 MCP 服务器提供服务,直接解决 AI 与系统的指令交互问题。
- 可视化工作流搭建:通过拖拽方式快速创建 AI 应用和工作流,让 MCP 相关任务流程的设计更直观高效。
- 多模型与工具集成:支持接入全球大语言模型、集成工具插件及 RAG 管道,为 MCP 任务提供能力扩展基础。
部署与集成:支持 Docker 和 AWS AMI 一键部署,同时提供 SaaS 版本,适应不同规模使用环境,提供 API 与 Webhook 接口。
你可以用 Dify 做什么?
- 内部智能助手
上传公司文档,接入 OpenAI 或 Claude,配置几个常用问题和变量,你就能快速搭建一个懂业务、有记忆的企业内部智能助手。通过 Dify 提供的前端 SDK 和 API,几行代码就能嵌入到你的官网或系统中使用。
- 构建多轮问答的 RAG 应用
Dify 内置数据集管理和上下文控制功能,可以快速实现基于向量检索的多轮对话系统。不需要自己搭向量库、不需要调 prompt 逻辑,只需上传资料、配置模型,就能搭好一个带记忆的问答系统,用于客服、知识库或 AI Copilot。
- 用工作流编排模型和插件调用链
通过 Dify 的工作流功能,你可以将多个模型调用、插件执行、API 请求串联在一起,实现复杂的 Agent 逻辑。例如,让模型先理解用户意图,再调用数据库接口,再将结果加工后回复用户——整个流程都可以在可视化界面中搭建完成。