AI科技评论 10月28日 22:32
钟怡然博士离职 MiniMax,曾主导设计高效大模型 MiniMax-01
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

AI科技评论独家获悉,在MiniMax负责大模型高效架构研究的高级研究总监钟怡然已离职,具体去向未公开。钟怡然博士曾主导设计了MiniMax-01模型,该模型凭借其自主研发的Lightning Attention架构,在处理百万级长文本时仅需极少算力,显著突破了传统Transformer模型的性能瓶颈。此前,钟博士在商汤科技和上海人工智能实验室也专注于大语言模型及多模态研究,并取得多项学术成就。MiniMax方面确认了钟博士的离职,并表示其仅参与了M1部分研发工作,祝福其未来发展。

🌟 核心人物离职:MiniMax高级研究总监钟怡然博士已离职,此前他曾是高效大模型MiniMax-01项目的主要负责人。他的离职标志着一个重要研究方向的领导者变动。

🚀 模型创新贡献:钟博士主导设计的MiniMax-01,采用了自主研发的Lightning Attention架构,实现了在处理百万级长文本时算力的大幅降低(仅需1/2700),有效解决了Transformer模型在长序列处理上的效率和可扩展性瓶颈。

📚 学术与产业背景:钟博士拥有深厚的学术背景,在加入MiniMax前,曾任职于商汤科技和上海人工智能实验室,专注于大语言模型、多轮对话及多模态融合研究,并在国际顶级会议和期刊上发表了大量论文,引用量近2000次。

💡 高效架构探索:MiniMax-01的成功代表了在大模型架构创新和效率优化方面的一条独特路径,尤其是在“高效长上下文建模”这一前沿领域取得了重要技术进展,为大模型技术的发展提供了新的思路。

原创 郑佳美 2025-10-28 18:05 广东

曾主导设计 MiniMax-01,让百万级长文本只用 1/2700 算力。

作者丨郑佳美

编辑丨马晓宁

AI 科技评论独家获悉,MiniMax 高级研究总监钟怡然已离职,具体去向暂未公开。

据公开资料显示,钟怡然博士毕业于澳大利亚国立大学,师从李宏东教授与 Richard Hartley 院士。并曾在国际权威期刊及顶级学术会议上累计发表了 40 余篇研究论文,涵盖 TPAMI、IJCV、IEEE TIP、CVPR、NeurIPS、ECCV、ICCV、ICLR、EMNLP 等领域,且持有多项美国专利。

钟怡然的科研成果在学术界与产业界都受到了广泛关注,相关论文累计被引用近 2000 次。还曾获的 2023 年 ICCV Workshop 最佳论文奖以和 2014 年 ICIP 最佳学生论文奖。

博士毕业后,钟怡然于 2021 年加入商汤科技,担任高级经理,负责大语言模型、多轮对话及多模态融合方向的研究。随后在 2022 年,以青年科学家的身份加入上海人工智能实验室,担任新架构探索组的 PI,OpenNLPLab负责人,专注于高效的大语言模型和视听语言多模态融合。

2023 年底,钟怡然在 MiniMax 就大模型的高效架构方向提出构想,与研发团队共同推进线性注意力机制在大规模语言模型中的应用。

2024 年,团队正式启动 MiniMax-01 项目,由钟怡然担任项目负责人,全面主导模型的架构设计与研发工作。经过近一年的迭代与优化,MiniMax 于 2025 年初正式发布基于 Lightning Attention 架构的 MiniMax-01 模型。

该模型一经推出便在业界引发广泛关注,被普遍认为是一款具有突破性意义的大语言模型。MiniMax-01 在超长上下文处理能力方面表现尤为突出,采用团队自主研发的 Lightning Attention 架构,通过线性或近线性注意力机制,大幅提升了模型在长序列输入下的计算效率与可扩展性,有效突破了传统 Transformer 在复杂度上的性能瓶颈。

总体而言,业内普遍认为 MiniMax-01 在大模型的架构创新与效率优化方面走出了一条独特路径,代表了“高效长上下文建模”方向的重要技术进展。

作为成就这一成果的核心人物之一,钟怡然在项目中发挥了关键作用。他带领团队完成了从理论创新到工程落地的全过程,推动 Lightning Attention 成为业内关注的焦点,为 MiniMax 的技术体系奠定了基础。

对此 MiniMax 回应 AI 科技评论,“钟怡然已于半年前离职,此前只参与 M1 部分研发工作,祝福他未来有更好发展。”

//

推荐阅读

UCL强化学习派:汪军与他的学生们

关于 DeepSeek 一体机落地真相,我们调研了 12 家上市公司

未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!

公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

钟怡然 MiniMax MiniMax-01 大语言模型 Lightning Attention AI 人工智能 LLM Zhong Yiran Large Language Model Efficient AI AI Research
相关文章