热点
"COT" 相关文章
打破数据质量鸿沟!清华腾讯Bee项目发布1500万高质量数据集,刷新MLLM全栈开源SOTA
智源社区 2025-11-12T08:28:25.000000Z
打破数据质量鸿沟!清华腾讯Bee项目发布1500万高质量数据集,刷新MLLM全栈开源SOTA
智源社区 2025-11-12T08:28:25.000000Z
打破数据质量鸿沟!清华腾讯Bee项目发布1500万高质量数据集,刷新MLLM全栈开源SOTA
量子位 2025-11-11T09:56:17.000000Z
打破数据质量鸿沟!清华腾讯Bee项目发布1500万高质量数据集,刷新MLLM全栈开源SOTA
量子位 2025-11-11T09:56:17.000000Z
全注意力、复杂推理不掉速:MiniMax M2把Agent做成了「可执行能力」
PaperWeekly 2025-11-04T15:38:44.000000Z
大语言模型(LLM)学习笔记
掘金 人工智能 2025-11-04T00:09:10.000000Z
You Don't Need Prompt Engineering Anymore: The Prompting Inversion
cs.AI updates on arXiv.org 2025-10-28T04:14:09.000000Z
DAG-Math: Graph-Guided Mathematical Reasoning in LLMs
cs.AI updates on arXiv.org 2025-10-24T04:16:01.000000Z
Towards Enhanced Image Generation Via Multi-modal Chain of Thought in Unified Generative Models
cs.AI updates on arXiv.org 2025-10-23T04:45:35.000000Z
Towards Thinking-Optimal Scaling of Test-Time Compute for LLM Reasoning
cs.AI updates on arXiv.org 2025-10-14T04:21:32.000000Z
CoT 之后,CoF 如何让帧间逻辑从「隐式对齐」变成「显式思考」?
机器之心 2025-10-13T16:13:05.000000Z
CoT 之后,CoF 如何让帧间逻辑从「隐式对齐」变成「显式思考」?
机器之心 2025-10-13T16:13:05.000000Z
Towards a Typology of Strange LLM Chains-of-Thought
少点错误 2025-10-09T22:12:29.000000Z
又一推理新范式:将LLM自身视作「改进操作符」,突破长思维链极限
机器之心 2025-10-03T14:10:13.000000Z
又一推理新范式:将LLM自身视作「改进操作符」,突破长思维链极限
机器之心 2025-10-03T10:52:13.000000Z
又一推理新范式:将LLM自身视作「改进操作符」,突破长思维链极限
机器之心 2025-10-03T08:29:35.000000Z
Typed Chain-of-Thought: A Curry-Howard Framework for Verifying LLM Reasoning
cs.AI updates on arXiv.org 2025-10-02T04:15:34.000000Z
A Formal Comparison Between Chain-of-Thought and Latent Thought
cs.AI updates on arXiv.org 2025-10-01T05:55:30.000000Z
R-Capsule: Compressing High-Level Plans for Efficient Large Language Model Reasoning
cs.AI updates on arXiv.org 2025-09-29T04:15:41.000000Z
DeepMind率先提出CoF:视频模型有自己的思维链
智源社区 2025-09-29T03:57:08.000000Z