Ollama AI代理 自動化
高品質、即插即用的 n8n 自動化流程,快速提升工作效率。
核心解決方案
- 省下大量手動作業時間
自動化日常繁瑣工作,將心力專注於更高價值的任務。
- 降低人為錯誤率
工作流程標準化,確保資料準確無誤地在不同平台間同步。
- 24/7 全天候運作
即使在休息時間,自動化流程也會持續為你提供服務。
- 極速部署與整合
無需自行開發,匯入 JSON 檔案並填寫 API Key 即可完成設定。
整合的應用程式
設定教學
你需要準備
在你的終端機執行 `ollama pull phi4` 與 `ollama pull llama3`(或其他你偏好的模型)。
建立 `Ollama API` 憑證。如果 n8n 是在 Docker 中執行,URL 請填入 `http://host.docker.internal:11434`。
檢查 `LLM Router` 節點,它會根據用戶問題決定使用哪個模型。確保輸出的 JSON 包含 `llm` 欄位。
購買後解鎖完整設定教學
包含 4 個設定步驟 + 常見問題排除
在你的終端機執行 `ollama pull phi4` 與 `ollama pull llama3`(或其他你偏好的模型)。
建立 `Ollama API` 憑證。如果 n8n 是在 Docker 中執行,URL 請填入 `http://host.docker.internal:11434`。
檢查 `LLM Router` 節點,它會根據用戶問題決定使用哪個模型。確保輸出的 JSON 包含 `llm` 欄位。
在 `Ollama Dynamic LLM` 節點的模型名稱處,應設為表達式:`{{ $('LLM Router').item.json.output.parseJson().llm }}`。
測試方法
輸入「寫一段複雜的程式碼」觀察 Router 是否切換到較大的模型;輸入「你好」觀察是否切換到較輕量的模型。
啟用自動化
啟用 Active 開關。由於是本地運行,請確保執行 n8n 的電腦不會進入睡眠狀態。
常見問題排除
模型名稱不匹配
記憶緩衝區錯誤
安全付款 · PAYUNi 金流