运行环境
docker 24.0.5
ollama version is 0.5.4
1. 下载并启动dify
git下载dify
git clone https://github.com/langgenius/dify.git
进入 Dify 源代码的 docker 目录,执行一键启动命令:
cd dify/docker
cp .env.example .env
docker compose up -d
2. ollama下载并运行
访问官方直接下载
https://ollama.com/download
安装没啥需要配置的,都是下一步下一步
安装完成先把通义千问跑起来
ollama run qwq:32b
3. dify配置大模型
dify启动完成之后访问本地 localhost或者127.0.0.1就可以了,默认绑定443和80端口
这里输入信息进行注册,然后就可以看到下面的界面
登录进来之后点击头像位置,打开设置
点击模型供应商、选择Ollama
这里我们只配置LLM,注意基础URL要填写:http://host.docker.internal:11434
添加完成之后就可以看到在这里会有显示
4. 开启聊天
创建聊天助手
至此,本地运行Dify配置本地大模型已经完成