LLM對話鏈 Ollama 更新
高品質、即插即用的 n8n 自動化流程,快速提升工作效率。
核心解決方案
- 省下大量手動作業時間
自動化日常繁瑣工作,將心力專注於更高價值的任務。
- 降低人為錯誤率
工作流程標準化,確保資料準確無誤地在不同平台間同步。
- 24/7 全天候運作
即使在休息時間,自動化流程也會持續為你提供服務。
- 極速部署與整合
無需自行開發,匯入 JSON 檔案並填寫 API Key 即可完成設定。
整合的應用程式
設定教學
你需要準備
在 n8n 中設定 Ollama API 地址(預設通常為 http://localhost:11434 或 http://host.docker.internal:11434)。
確認第一個 LLM 節點使用的是 `bespoke-minicheck` 模型,這是一個專門用於事實查核的微型模型。
確認第二個 LLM 節點使用的是 `qwen2.5:1.5b` 或其他適合總結的本地模型。
購買後解鎖完整設定教學
包含 4 個設定步驟 + 常見問題排除
在 n8n 中設定 Ollama API 地址(預設通常為 http://localhost:11434 或 http://host.docker.internal:11434)。
確認第一個 LLM 節點使用的是 `bespoke-minicheck` 模型,這是一個專門用於事實查核的微型模型。
確認第二個 LLM 節點使用的是 `qwen2.5:1.5b` 或其他適合總結的本地模型。
在流程起始的 Code 節點或 Set 節點中,放入您想要進行事實查核的段落內容。
測試方法
手動點擊 'Test workflow'。流程會將文字拆解成句子,逐一由 `bespoke-minicheck` 進行驗證,最後彙整出查核報告。
啟用自動化
此流程主要作為 API 或子工作流使用。您可以透過 'Execute Workflow' 節點從其他主流程中呼叫此查核模組。
常見問題排除
連線失敗 (Connection Refused)
模型運行極慢
安全付款 · PAYUNi 金流