三星(Samsung)先進技術研究院蒙特婁研究員Alexia Jolicoeur-Martineau發表Tiny Recursion Model(TRM)研究,以僅約700萬參數的小模型,在ARC-AGI-1基準測試達44.6%正確率,在ARC-AGI-2則達7.8%。雖然其表現仍低於Grok-4系列模型,但已超越多個大型語言模型。相關論文已公開發表,並於GitHub平臺開放原始碼。
TRM高效的關鍵在於遞迴推理(Recursive Reasoning),這是一種讓模型在思考過程中重複檢查與修正自己答案的方法。TRM只使用一個小型神經網路,在固定的步數內不斷進行再思考與修正,運作方式是先將題目與初步答案輸入模型,模型會生成一組潛在表示,代表其對問題的理解。接著,模型在每一步都重新檢視這些潛在變數,根據新的理解修正先前的答案,並逐步逼近更合理的解答。
TRM的設計有點像人類解難時反覆推敲的過程,每次思考都會帶來新的線索或更好的推理方向。相較於之前的重要研究HRM(Hierarchical Reasoning Model)需要兩個小網路分別在不同頻率下遞迴運作,TRM僅靠單一網路即可完成整個反覆推理流程,結構更簡潔、運算成本也更低。這讓TRM能以極少的參數量達到不錯的問題解決能力,也展現了小模型透過遞迴思考機制,仍可表現出一定的邏輯與抽象推理能力。
TRM在多個解謎任務基準測試的表現亮眼,數獨極難版Sudoku-Extreme最高87.4%,以及迷宮Maze-Hard 85.3%。其中,ARC-AGI-1的44.6%與ARC-AGI-2的7.8%被拿來與其他大語言模型,例如DeepSeek R1、o3-mini與Gemini 2.5 Pro做比較,其以不到其千分之一的參數量呈現相對優勢。
作者Alexia Jolicoeur-Martineau同時指出,過度依賴大型企業以數百萬美元訓練的大型基礎模型來解決複雜問題,將會造成限制。他認為,目前產業界過於關注大型語言模型現有的能力,而非致力於設計並拓展新的研究方向。
