AI聊天 LLM對話鏈 自動化
AI 驅動
14 個節點
中級
高品質、即插即用的 n8n 自動化流程,快速提升工作效率。
核心解決方案
- 省下大量手動作業時間
自動化日常繁瑣工作,將心力專注於更高價值的任務。
- 降低人為錯誤率
工作流程標準化,確保資料準確無誤地在不同平台間同步。
- 24/7 全天候運作
即使在休息時間,自動化流程也會持續為你提供服務。
- 極速部署與整合
無需自行開發,匯入 JSON 檔案並填寫 API Key 即可完成設定。
整合的應用程式
l
lmOllama 設定教學
預估設定時間:5-10 分鐘
你需要準備
Ollama (本地 LLM)
1
連結本地模型節點
在「Ollama Model」節點中,輸入憑證並確認模型名稱填寫為 `llama3.2:latest`。
2
調整對話提示詞
在「Basic LLM Chain」節點中,可以修改 System Message。目前預設為要求模型回傳 JSON 格式。
3
設定結構化回應
在「JSON to Object」節點中,確認欄位映射是否正確將模型輸出的 JSON 轉為工作流物件。
購買後解鎖完整設定教學
包含 3 個設定步驟 + 常見問題排除
1. 將 JSON 檔案拖入 n8n 畫布。
2. 設定「Ollama Model」節點的 Base URL(若在同一台機器通常為 http://localhost:11434)。
3. 確保你已下載 Llama 3.2 模型。
1
連結本地模型節點 Ollama Model
在「Ollama Model」節點中,輸入憑證並確認模型名稱填寫為 `llama3.2:latest`。
2
調整對話提示詞 Basic LLM Chain
在「Basic LLM Chain」節點中,可以修改 System Message。目前預設為要求模型回傳 JSON 格式。
3
設定結構化回應 JSON to Object
在「JSON to Object」節點中,確認欄位映射是否正確將模型輸出的 JSON 轉為工作流物件。
測試方法
使用「Chat Antagonist」或點擊觸發器節點的「Test Step」,輸入一段對話。確認 Ollama 服務有響應且工作流最後輸出乾淨的 JSON 物件。
啟用自動化
開啟 Active 後,你可以透過 n8n 內建的 Chat 介面或 API 呼叫此對話流程。
常見問題排除
Connection Refused (連接被拒絕)
確認 Ollama 正在運行,且防火牆未擋住 11434 埠。若 n8n 跑在 Docker 中,Base URL 需設為 `http://host.docker.internal:11434`。
回應速度過慢
本地 LLM 速度取決於硬體 (GPU/RAM)。建議關閉其他佔用資源的程式,或換用較小的模型版本如 llama3.2:1b。
個人使用授權 NT$ 790
AI 進階模板 即時下載 JSON 檔案
完整中文設定教學
包含 LINE / Telegram 設定指南
終身功能更新
安全付款 · PAYUNi 金流
或者購買超值方案包
包含在此套件中 AI LLM 智能對話包