由OpenAI前技術長Mira Murati創立的Thinking Machines Lab,發表了首款產品Tinker。這款微調API並非大型語言模型,而是專為客製化開放權重模型設計,讓研究人員與開發者能更輕鬆地訓練符合特定需求的AI模型。Tinker提供託管服務,使用者可透過雲端API直接微調Qwen、Llama、Mistral等模型,自動處理GPU資源分配、排程和錯誤復原等複雜工作。它支援LoRA等高效微調技術,並提供Tinker Cookbook範例庫,包含RLHF等後訓練流程,協助開發者打造專屬模型。Tinker旨在降低模型客製化門檻,推動研究與應用普及,目前正開放免費試用,未來將採依使用量計價的收費模式。
💡 **Tinker的創新定位**:Thinking Machines Lab推出的Tinker並非直接提供大型語言模型,而是專注於提供一個微調API服務,旨在解決開放權重模型客製化的痛點。這項服務讓研究人員和開發者能夠更便捷地訓練出滿足特定應用需求的AI模型,而非僅限於使用通用模型。
⚙️ **簡化的模型訓練流程**:Tinker作為一個託管服務,透過雲端API讓使用者能夠直接微調Qwen、Llama、Mistral等熱門的開放權重模型。它自動化了訓練過程中的複雜技術環節,包括GPU資源的有效分配、任務的智能排程以及訓練過程中的錯誤復原機制,極大地減輕了使用者自行架設和管理運算環境的負擔。
📚 **豐富的客製化選項與資源**:Tinker不僅支援LoRA等高效微調技術,還提供了開源的Tinker Cookbook範例庫,其中包含了如強化學習(RLHF)和偏好優化等多元化的後訓練流程。這使得開發者能夠根據自身的具體任務需求,靈活地打造出在知識、語氣風格等方面高度客製化的專屬AI模型,無論是專業應用、客服助理還是學術研究。
🚀 **推動AI普及與基礎設施建設**:Thinking Machines Lab透過Tinker的推出,展現了其成為AI研究與應用領域基礎設施供應商的戰略目標。透過降低模型客製化的門檻,並藉由Tinker Cookbook推動開源研究與應用的普及,旨在為日益增多的開放權重模型生態系統提供必要的靈活工具,加速模型的快速客製化與部署。
由OpenAI前技術長Mira Murati在今年2月成立的AI新創Thinking Machines Lab,於本周三(10/1)發表首款產品Tinker,令人意外的是,這不是一個大型語言模型,而是用於客製化開放權重模型的微調API,能讓研究人員與開發者更輕鬆地訓練出符合特定需求的AI模型。
Tinker基本上是個託管服務,使用者可直接透過雲端API來微調開放權重模型,包括Qwen、Llama與Mistral等,它會自動處理訓練過程中的複雜工作,例如GPU資源分配、排程與錯誤復原,讓使用者不必自行架設伺服器或管理運算環境。
此外,Tinker支援LoRA等高效微調技術,可搭配開源的Tinker Cookbook範例庫,提供多種後訓練流程,如強化學習(RLHF)與偏好優化。開發者可依任務需求打造專屬模型,不管是專業應用、客服助理或研究實驗,都能更靈活地掌握模型知識與語氣風格。
Thinking Machines Lab表示,Tinker的目標是讓更多團隊能以更低門檻進行模型客製化,並利用開源的Tinker Cookbook 推動研究與應用普及。
目前Tinker尚屬私人測試階段,開放研究人員及開發者申請免費試用,以透過雲端API微調開放權重模型,體驗其自動化訓練管理及高效微調流程,未來則會採用依使用量計價的收費方式,根據實際訓練所需的算力、儲存及API調用來計費,預期將依照不同的微調方式提供分級價格。Tinker的正式定價要在公開測試版上線後才會出爐。
不若其它AI新創,Thinking Machines Lab並未推出大型語言模型,而選擇發表微調平臺,反映出該公司企圖成為AI研究與應用的基礎設施供應商,因為隨著愈來愈多開放權重模型的現身,研究人員與企業需要更靈活的工具來快速客製及部署模型。
成立不到1年的Thinking Machines Lab已取得由a16z領投的20億美元種子輪融資,且Nvidia與思科也都參與了種子輪,融資後的估值為120億美元。