今天我们用最新技术DIFY工作流来搭建一个人工智能机器人,这里的机器人对接主流的大模型,而且想用什么模型都可以自由切换,这就是dify工作流的强大之处。
1.部署一个本地的dify跑起来:
部署使用docker部署,一键部署非常方便
开源地址:https://github.com/langgenius/dify
执行启动命令:
cd dify
cd docker
cp .env.example .env
docker compose up -d
申请模型 API key:AI 模型调用需消耗 token,Dify 提供部分免费调用额度,用完需在模型厂商官方渠道申请 API key,并填入 Dify 的【设置】–【模型提供商】处。(这里我们用的是火山引擎豆包AI大模型)
2.打开dify界面构建工作流节点
工作流里面都是无代码直接操作,非常方便!
如果要求输出信息更加精准具有自定义效果,我们可以让他“学习一下”,这里的学习其实就是投喂知识库。下面是详细步骤:
- 上传知识库(如果你嫌麻烦也可以省略这一步)
- 登录 Dify 页面,点击知识库菜单,选择创建知识库。
- 上传本地知识库文件,如文本文件等,点击下一步。
- 自定义分段标识符,选择合适的 Embedding 模型,如硅基流动的嵌入模型,点击保存并处理。
- 等待处理完成,完成后会有对勾标识。
- 做好后像上述截图中一样将知识库节点增加进去,然后选择你命名的知识库文件就好了。
- 创建聊天助手
- 创建一个聊天助手,配置一个模型就搞定了。模型的命令如:“你是一个某某行业专业的人工智能客服,请按照问题{xxx}回答!….”
- 说明:后面可以自由发挥加入你自己想给到AI的指令。
- 最后增加一个输出节点即可。
简单一点,其实3个节点就可以制作出一个智能客服机器人,上面截图是我制作好的机器人,里面有一些逻辑判断,所以看着稍微复杂一点。
3.其他配置技巧:
1).如何配置dify里对应服务商模型的key?
点击右上角的设置按钮,选择你需要使用的模型供应商,然后下面有个从xxx获取key点击进去直接到达供应商的key申请页面申请即可,然后按照要求填写进去。如果没有填写好,是不能保存的,这里注意下即可!
2).如何更换dify的模型?
选择你的LLM节点,点击后编辑模型即可,非常简单!
3).dify知识库如何增加到命令行?
在LLM模型配置里“上下文”处选择知识库检索的结果
再在下方命令行输入“/”或点击{x}按钮选择上下文即可带入这个知识库变量