专业编程基础技术教程

网站首页 > 基础教程 正文

Mac本地运行Dify,并连接使用qwq 32b大模型

ccvgpt 2025-05-03 12:43:43 基础教程 4 ℃

运行环境

docker 24.0.5

Mac本地运行Dify,并连接使用qwq 32b大模型

ollama version is 0.5.4

1. 下载并启动dify

git下载dify

git clone https://github.com/langgenius/dify.git

进入 Dify 源代码的 docker 目录,执行一键启动命令:

cd dify/docker
cp .env.example .env
docker compose up -d

2. ollama下载并运行

访问官方直接下载

https://ollama.com/download

安装没啥需要配置的,都是下一步下一步

安装完成先把通义千问跑起来

ollama run qwq:32b

3. dify配置大模型

dify启动完成之后访问本地 localhost或者127.0.0.1就可以了,默认绑定443和80端口


这里输入信息进行注册,然后就可以看到下面的界面



登录进来之后点击头像位置,打开设置



点击模型供应商、选择Ollama


这里我们只配置LLM,注意基础URL要填写:http://host.docker.internal:11434


添加完成之后就可以看到在这里会有显示


4. 开启聊天



创建聊天助手


至此,本地运行Dify配置本地大模型已经完成


Tags:

最近发表
标签列表