目录
- Dify
- 一、本地化部署
- 1、安装docker
- 2、安装Dify
- (1)拉取代码到本地
- (2)docker部署
- (3)查看服务状态
- (4)web端部署
- (5)登录
- 二、可能会出现的问题
- (1)拉取镜像超时
- (2)80端口被占用
- (3)自定义配置
- 好书推荐
Dify
Dify 是一款开源的大语言模型(LLM)应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。
由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的工作流,并同时提供了一套易用的界面和 API。这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求。
官方: https://docs.dify.ai/zh-hans/introduction
一、本地化部署
官方githup地址:https://github.com/langgenius/dify
我的配置
- 操作系统:Mac M1
- npm:10.5.0
- node:20.15.1
- pnpm:9.8.0
Dify配置电脑要求:
- CPU >= 2 Core
- RAM >= 4 GiB
1、安装docker
安装地址:https://www.docker.com/,根据自己电脑操作系统去选择对应的版本。Apple Silicon 芯片(也称为 M1、M1 Pro、M1 Max、M2 等)设计的,另一个则是为 Intel 处理器设计的.
2、安装Dify
(1)拉取代码到本地
git clone https://github.com/langgenius/dify.git
(2)docker部署
这里使用 Docker Compose 服务,它通常用于在多容器环境下启动一个应用
cd dify
cd docker
cp .env.example .env //.env.example 文件复制到 .env
docker compose up -d //启动 Docker Compose 服务,并根据 .env 文件中的配置启动容器
出现下图就说明镜像安装成功
(3)查看服务状态
docker compose ps
可以看到10个容器都启动成功
(4)web端部署
这里我使用pnpm来安装依赖,我使用yarn安装时会报错
cd web
pnpm i
启动web
yarn run dev
运行后,可以在浏览器上访问 http://localhost/install 进入 Dify 控制台并开始初始化安装操作。
(5)登录
设置完程管理员账号之后,就登录到Dify页面,可以自主创建应用
二、可能会出现的问题
(1)拉取镜像超时
如果没有出现该问题,直接略过。
在拉取镜像过程中可能会出现超时,这里我们配置一下docker拉取镜像源的地址,打开docker面板,点击“设置”,选择“Docker Engine”
把下面代码粘贴进去
{"builder": {"gc": {"defaultKeepStorage": "20GB","enabled": true}},"experimental": false,"registry-mirrors": ["http://docker.m.daocloud.io/","http://huecker.io/","http://dockerhub.timeweb.cloub","http://noohub.ru/","http://dockerproxy.com","http://docker.mirrors.ustc.edu.cn","http://docker.nju.edu.cn","http://xx4bwyg2.mirror.aliyuncs.com","http://f1361db2.m.daocloud.io","http://registry.docker-cn.com","http://hub-mirror.c.163.com"]
}
(2)80端口被占用
查看有哪些进程占用80端口
sudo lsof -i :80
有占用情况则直接kill掉
sudo kill -9 <PID>
另一种解决办法就是修改默认的80端口
在.env.example
中,修改NGINX_PORT
为80
,NGINX_SSL_PORT
为4436
,这里的端口可以改成其他的
# HTTP port
NGINX_PORT=83
# SSL settings are only applied when HTTPS_ENABLED is true
NGINX_SSL_PORT=4436
改完之后,我们就重启dify的docer服务,首先删除并停止 Docker Compose 管理的所有容器
docker compose down
等docker容器都remove之后,再执行:
docker compose up -d
此时前端的url就变成了:http://localhost:83
另外.env 配置中还有SERVICE_API_URL
和APP_WEB_URL
两个配置项,设置为http://ip:port,这个用于API地址以及智能体地址分享
(3)自定义配置
参考 .env.example 文件中的注释,并更新 .env
文件中对应的值。此外,您可能需要根据您的具体部署环境和需求对 docker-compose.yaml
文件本身进行调整,例如更改镜像版本、端口映射或卷挂载。完成任何更改后,请重新运行 docker-compose up -d
。您可以在此处找到可用环境变量的完整列表。
好书推荐
《AI Agent开发与应用:基于大模型的智能体构建》
随着人工智能技术的迅猛发展,大语言模型(Large Language Models,LLM)正在成为智能体构建的核心驱动力,推动各行业实现自动化与智能化变革。这些基于LLM的智能体不仅具备出色的自然语言处理能力,还能通过多轮对话、知识推理和任务自动化来高效应对复杂任务。在金融、医疗、教育和客户服务等领域,智能体展现出了强大的适应能力,正在重塑传统的业务流程与人机交互方式。
在人工智能蓬勃发展的浪潮中,大语言模型(LLM)正以惊人的速度成为智能体(Agent)构建的强大引擎,引领各行业迈向自动化与智能化的崭新纪元。《AI Agent开发与应用:基于大模型的智能体构建》这本书,恰似一把开启智能体开发宝藏的钥匙,为开发者和企业照亮了前行的道路。
《AI Agent开发与应用:基于大模型的智能体构建》不仅仅是一本技术指南,更是一扇通往未来智能世界的大门。它凝聚了作者深厚的专业知识和丰富的实践经验,以通俗易懂的语言和清晰的逻辑架构,为您提供了一套完整、系统的大语言模型驱动的智能体开发方案。
无论您是初涉智能体开发的新手,还是有一定开发经验的企业开发工程师和从业者,都能从中汲取宝贵的知识和灵感,从而在人工智能的广阔天地中创造出更多具有创新性和实用性的应用,引领行业发展潮流,抢占未来技术的制高点,强烈安利给您。