AI聊天 Ollama 自動化
AI 驅動
5 個節點
入門
高品質、即插即用的 n8n 自動化流程,快速提升工作效率。
核心解決方案
- 省下大量手動作業時間
自動化日常繁瑣工作,將心力專注於更高價值的任務。
- 降低人為錯誤率
工作流程標準化,確保資料準確無誤地在不同平台間同步。
- 24/7 全天候運作
即使在休息時間,自動化流程也會持續為你提供服務。
- 極速部署與整合
無需自行開發,匯入 JSON 檔案並填寫 API Key 即可完成設定。
整合的應用程式
l
lmChatOllama 設定教學
預估設定時間:5-10 分鐘
你需要準備
Ollama (本地 LLM)
1
確認 Ollama 服務狀態
確保 Ollama 正在運行,並且您已經下載了想要使用的模型(例如 llama3)。
2
配置 Ollama 憑證
在 n8n 建立 Ollama 憑證,填入基礎 URL。若 n8n 在 Docker 中運行,請使用 host.docker.internal 或主機 IP。
3
選擇 AI 模型
在「Ollama Chat Model」節點的 Model 欄位,輸入您在 Ollama 中下載的模型名稱。
購買後解鎖完整設定教學
包含 3 個設定步驟 + 常見問題排除
1. 複製模板 JSON。
2. 在 n8n 工作區直接貼上 (Ctrl/Cmd + V) 或使用 Import 功能匯入。
1
確認 Ollama 服務狀態 Ollama Chat Model
確保 Ollama 正在運行,並且您已經下載了想要使用的模型(例如 llama3)。
2
配置 Ollama 憑證 Ollama Chat Model
在 n8n 建立 Ollama 憑證,填入基礎 URL。若 n8n 在 Docker 中運行,請使用 host.docker.internal 或主機 IP。
3
選擇 AI 模型 Ollama Chat Model
在「Ollama Chat Model」節點的 Model 欄位,輸入您在 Ollama 中下載的模型名稱。
測試方法
點擊「Chat」視窗圖示,輸入一段文字與本地 AI 對話,確認它能正確回傳回應。
啟用自動化
此流程使用 Chat Trigger,只需將工作流設為「Active」,即可透過 n8n 的聊天介面進行對話。
常見問題排除
Connection Refused (連線被拒絕)
如果是 Docker 環境,請確保啟動容器時加上 `--net=host` 或設定正確的環境變數以存取宿主機網路。
找不到模型
請確認在終端機執行過 `ollama run [模型名稱]` 確保模型已下載完成。
個人使用授權 NT$ 790
AI 進階模板 即時下載 JSON 檔案
完整中文設定教學
包含 LINE / Telegram 設定指南
終身功能更新
安全付款 · PAYUNi 金流
或者購買超值方案包
包含在此套件中 AI LLM 智能對話包