如何使用DIFY工作流搭建一个免费的AI人工智能客服机器人?

今天我们用最新技术DIFY工作流来搭建一个人工智能机器人,这里的机器人对接主流的大模型,而且想用什么模型都可以自由切换,这就是dify工作流的强大之处。

1.部署一个本地的dify跑起来:

部署使用docker部署,一键部署非常方便

开源地址:https://github.com/langgenius/dify
执行启动命令:
cd dify
cd docker
cp .env.example .env
docker compose up -d

申请模型 API key:AI 模型调用需消耗 token,Dify 提供部分免费调用额度,用完需在模型厂商官方渠道申请 API key,并填入 Dify 的【设置】–【模型提供商】处。(这里我们用的是火山引擎豆包AI大模型)

2.打开dify界面构建工作流节点

工作流里面都是无代码直接操作,非常方便!

如果要求输出信息更加精准具有自定义效果,我们可以让他“学习一下”,这里的学习其实就是投喂知识库。下面是详细步骤:

  1. 上传知识库(如果你嫌麻烦也可以省略这一步)
    • 登录 Dify 页面,点击知识库菜单,选择创建知识库。
    • 上传本地知识库文件,如文本文件等,点击下一步。
    • 自定义分段标识符,选择合适的 Embedding 模型,如硅基流动的嵌入模型,点击保存并处理。
    • 等待处理完成,完成后会有对勾标识。
    • 做好后像上述截图中一样将知识库节点增加进去,然后选择你命名的知识库文件就好了。
  2. 创建聊天助手
    • 创建一个聊天助手,配置一个模型就搞定了。模型的命令如:“你是一个某某行业专业的人工智能客服,请按照问题{xxx}回答!….”
    • 说明:后面可以自由发挥加入你自己想给到AI的指令。
    • 最后增加一个输出节点即可。

简单一点,其实3个节点就可以制作出一个智能客服机器人,上面截图是我制作好的机器人,里面有一些逻辑判断,所以看着稍微复杂一点。

3.其他配置技巧:

1).如何配置dify里对应服务商模型的key?

点击右上角的设置按钮,选择你需要使用的模型供应商,然后下面有个从xxx获取key点击进去直接到达供应商的key申请页面申请即可,然后按照要求填写进去。如果没有填写好,是不能保存的,这里注意下即可!

2).如何更换dify的模型?

选择你的LLM节点,点击后编辑模型即可,非常简单!

3).dify知识库如何增加到命令行?

在LLM模型配置里“上下文”处选择知识库检索的结果

再在下方命令行输入“/”或点击{x}按钮选择上下文即可带入这个知识库变量

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇