AI聊天 LLM對話鏈 自動化
高品質、即插即用的 n8n 自動化流程,快速提升工作效率。
核心解決方案
- 省下大量手動作業時間
自動化日常繁瑣工作,將心力專注於更高價值的任務。
- 降低人為錯誤率
工作流程標準化,確保資料準確無誤地在不同平台間同步。
- 24/7 全天候運作
即使在休息時間,自動化流程也會持續為你提供服務。
- 極速部署與整合
無需自行開發,匯入 JSON 檔案並填寫 API Key 即可完成設定。
整合的應用程式
設定教學
你需要準備
在「Ollama Model」節點中點擊「Select Credential」,輸入你的 Ollama 服務位址(通常為 http://localhost:11434)。
在「Ollama Model」節點的 Model 欄位,填入 `llama3.2:latest`。若使用不同模型請自行更換。
進入「Basic LLM Chain」節點,根據你的需求修改 Prompt 內容。預設會將回答轉為 JSON 格式。
購買後解鎖完整設定教學
包含 5 個設定步驟 + 常見問題排除
在「Ollama Model」節點中點擊「Select Credential」,輸入你的 Ollama 服務位址(通常為 http://localhost:11434)。
在「Ollama Model」節點的 Model 欄位,填入 `llama3.2:latest`。若使用不同模型請自行更換。
進入「Basic LLM Chain」節點,根據你的需求修改 Prompt 內容。預設會將回答轉為 JSON 格式。
在「JSON to Object」節點確認欄位映射,確保 AI 的回傳資料能正確解析為結構化物件。
在「Structured Response」節點中,設定最終要在聊天視窗顯示的資料欄位。
測試方法
點擊流程左下角的「Chat」按鈕開啟測試視窗,輸入任意問題。觀察「Basic LLM Chain」是否成功調用本地模型並回傳結構化 JSON 資料。
啟用自動化
此流程使用 Chat Trigger,點擊右上角「Save」並開啟「Active」開關。點擊「Chat」視窗中的「Share」按鈕即可取得對外公開的聊天連結。
常見問題排除
Ollama 連線失敗
模型未找到錯誤
安全付款 · PAYUNi 金流