開源AI工具平臺Ollama推出Web Search API,提供模型取用網頁資訊的新管道。該功能的目標在於降低生成式模型常見的幻覺問題,並透過即時檢索網頁資料,讓回應內容更符合現實與可驗證來源。該服務以REST API形式開放,個人用戶可使用免費額度,需求量更高則能透過雲端方案取得更多的使用量。
在使用流程上,開發者首先需於Ollama帳號中建立API金鑰,即可透過標準HTTP請求呼叫API端點,輸入查詢後可取得包含標題、網址與節錄內容的搜尋結果,要是需擷取單一網頁的完整資訊,則可透過呼叫web_fetch,以輸入目標網址取得頁面標題、簡化後的內容與外部連結。相較於自行撰寫爬蟲程式碼,這種方式能以最少的整合成本,讓模型具備檢索與引用的能力。
Ollama也同步在Python與JavaScript套件中提供新函式支援,這些函式能直接整合至聊天或代理系統,達到先搜尋再回應的應用模式,不必額外處理網路抓取與格式轉換的細節。
在官方展示的應用場景中,Ollama以Qwen3 4B模型為例,結合網頁搜尋與網頁擷取工具,實現逐步蒐集資料再回覆答案的對話流程。針對長時間任務或研究型工作流程,像gpt-oss這類模型可藉由工具串接持續擴充上下文。由於搜尋與抓取的結果可能相當龐大,官方建議將模型上下文長度設至約32,000 Tokens,確保資料不會因截斷而遺失。這樣的設計特別適合新聞資料蒐集、技術文件比對與專案研究,能在單一工作流程中完成查詢、擷取與摘要。
在整合層面上,Ollama也針對多個開發工具生態系提供範例設定,包括透過MCP(Model Context Protocol)伺服器連動,使Cline、Codex與Goose等客戶端,能直接啟用網頁搜尋與網頁擷取工具。這種標準化做法,使開發者能將新API整合進既有RAG管線或聊天應用,並提供帶有來源連結的回答,增強回應的可追溯性。
