智源社区 09月03日
大模型进军游戏:TiG框架赋能王者荣耀
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

腾讯最新提出的Think-In-Games (TiG) 框架,成功将大语言模型训练并应用于《王者荣耀》游戏。该框架能够让模型实时理解游戏盘面信息,并模拟人类玩家进行操作。通过“边玩边学”的训练方式,TiG框架使参数量仅为14B的Qwen-3-14B模型,在动作精准度上超越了参数量高达671B的Deepseek-R1模型。TiG的核心在于将强化学习决策重新定义为语言建模任务,使大模型能生成语言指导的策略,并通过在线强化学习进行迭代优化,弥合了传统大模型和强化学习在解释与行动上的鸿沟。该框架侧重于训练模型在游戏中的宏观推理能力,如制定团队策略、控制目标等,而非微观层面的精确操作。通过SFT和GRPO等多阶段训练方法,TiG在数据量和计算需求上显著降低,同时达到了具有竞争力的性能。

🎯 **TiG框架重塑游戏AI训练范式**:腾讯提出的Think-In-Games (TiG) 框架,将强化学习决策转化为语言建模任务,使大语言模型能够理解游戏状态并生成策略。这种“边玩边学”的方法,让模型能够像人类玩家一样进行实时决策和操作,有效地弥合了模型“知其然”与“知其所以然”之间的差距,为游戏AI的训练提供了新的思路。

🏆 **小模型以高精度超越大模型**:通过TiG框架的训练,仅拥有14B参数的Qwen-3-14B模型在《王者荣耀》中的动作精准度高达90.91%,显著超越了参数量为671B的Deepseek-R1模型。这表明TiG框架在提升模型效率和性能方面表现出色,能在更低的计算和数据需求下,实现与传统强化学习方法相媲美的效果,为开发更高效的游戏AI提供了可能。

🧠 **聚焦宏观策略与团队协同**:TiG框架侧重于训练模型在游戏中的宏观层面推理能力,例如制定团队目标、地图施压和协调机动等策略。这使得模型更像一个能够精准判断局势的“金牌教练”,而非仅仅执行微观操作的“职业选手”。通过将决策转化为文本描述,并解释决策原因,模型能够更好地理解和执行复杂的团队战术,提升整体游戏表现。

📈 **SFT与GRPO的协同增效**:研究表明,结合监督微调(SFT)和Group Relative Policy Optimization (GRPO)算法的多阶段训练方法,能够显著提升模型性能。例如,Qwen-2.5-32B模型在应用GRPO后,准确率从66.67%提升至86.84%;Qwen2.5-14B模型在SFT和GRPO结合训练后,准确率从53.25%提升至83.12%。这种组合策略有效地增强了模型的推理能力,为实现高性能游戏AI奠定了基础。

大语言模型可以打王者荣耀了!

腾讯最新提出的Think-In-Games (TiG) 框架,直接把大模型丢进王者荣耀里训练。它不仅能实时理解盘面信息(英雄、发育、兵线、防御塔、资源、视野等),还能打出像人类玩家一样的操作。

更炸裂的是,靠着这种“边玩边学”的训练方式,让仅14B参数的Qwen-3-14B,干翻了671B的 Deepseek-R1,动作精准度高达90.91%

那么问题来了:它是怎么做到的?

TiG:边玩边学

总的来说,TiG将基于强化学习的决策重新定义为一种语言建模任务。大语言模型生成由语言指导的策略,然后根据环境反馈,通过在线强化学习进行迭代优化。

这一方法弥合了传统大语言模型只知道为什么,但无法作出行动;强化学习只知道行动,却无法解释为什么的鸿沟。

为了实现这一方法,研究团队直接让大语言模型在《王者荣耀》中行动,并解释原因。

值得注意的是,在这一框架中,大语言模型主要学习了人类玩家在《王者荣耀》游戏中宏观层面的推理能力

与微观层面动作(如精确技能施放)不同,宏观层面推理优先考虑长期目标和团队协同,涉及制定和执行团队范围的策略,例如控制目标、地图施压和协调团队机动

这也就意味着,与其说TiG是一名职业选手,不如说他是能精准判断场上局势的金牌教练

具体来说,Tig将决策转化为文本,模型通过读取JSON获取游戏状态,然后再从固定菜单(例如推进或防御)中选择宏操作(如推上路”、“夺龙”、“防守基地”),并解释为何如此。

举例来说,在上图的游戏场景中,阿古朵,与队友姜子牙在中路推进,目标是敌方一座血量较低的一塔 。

基于此,模型先对游戏状态进行全面评估 。例如,“防御塔和野区保护机制均已失效”(对局已进入中期)。然后分析优先目标(摧毁中路一塔),制定策略(联合姜子牙前往敌方中路一塔,集中火力推塔)并提示风险,

最后,模型将结合英雄的的理解,建议作为射手的阿古朵“保持安全距离输出”,并与姜子牙的控制效果协同配合,并将这一指令输出给玩家“联合姜子牙推掉敌方中路一塔,注意敌方可能埋伏”。

为了实现上面在游戏中边玩边学的效果,研究团队先从真实游戏对局中采样,构建数据集,为了确保每个游戏状态都带有一个宏观级别的动作标签,研究提出了“重新标注算法”

该方法先在帧窗口内进行向后填充,再通过优先级覆盖机制确保每个状态都标注为最关键的宏观动作。这样得到的密集且一致的序列,为后续的 GRPO 训练与基于规则的奖励函数提供了稳健信号。

之后,为了在游戏环境中实现有效的战略推理学习,研究团队采用了Group Relative Policy Optimization (GRPO) 算法,以最大化生成内容的优势,并限制策略与参考模型之间的分歧。

在奖励设置方面,TiG使用基于二元规则的奖励,当预测操作与人类游戏玩法匹配时为1,否则为0,从而保持更新的稳定性和成本。

奖励是基于实战积累的过程性知识、人类可读的战略规划,以及依然保持完好的通用语言能力。

训练过程与实验结果

TiG采用多阶段训练方法,结合了监督微调(SFT)和强化学习(RL)来增强模型能力。

    SFT阶段:从Deepseek-R1中提取训练数据进行SFT。这些数据展示了强大的推理能力,可以帮助较小的模型获取深度推理能力。在线RL阶段:使用真实游戏数据,并利用GRPO算法训练模型。

在具体的实验中,研究探索了多种训练方法的组合方式。

    GRPO:仅使用GRPO算法训练基础模型,不进行SFT训练。

    SFT:仅使用SFT训练数据集训练基础模型 。

    SFT + GRPO :首先使用SFT训练基础模型,然后应用GRPO 算法进一步训练,以提高模型的推理能力。

(注:为了评估模型的质量,研究设置了以下不同规模的基线模型,包括Qwen-2.5-7B-Instruct、Qwen-2.5-14B-Instruct、Qwen-2.5-32B-Instruct、Qwen-3-14B-Instruct和Deepseek-R1)

实验结果表明:SFT和GRPO的组合能显著提高不同模型规模的性能,Qwen-2.5-32B在应用GRPO后,准确率从 66.67% 提高到86.84%。而Qwen2.5-14B在依次应用SFT和GRPO后,准确率从53.25%提高到83.12%。

此外,正如我们开头提到的,经过SFT和GRPO训练(2000步)的Qwen-3-14B达到了90.91%的准确率,超过了参数量大一个数量级的 Deepseek-R1(86.67%)。

综上,TiG不仅弥合了“知其然”与“知其所以然”之间的鸿沟,还在数据量和计算需求显著降低的情况下,取得了与传统RL方法具有竞争力的性能。

参考链接
[1]https://arxiv.org/abs/2508.21365
[2]https://x.com/rohanpaul_ai/status/1962499431137493195

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

专属AI产品从业者的实名社群,只聊AI产品最落地的真问题  扫码添加小助手,发送「姓名+公司+职位」申请入群~
进群后,你将直接获得:
 👉 最新最专业的AI产品信息及分析 🔍 
 👉 不定期发放的热门产品内测码 🔥
 👉 内部专属内容与专业讨论 👂

🌟 点亮星标 🌟

科技前沿进展每日见

内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大语言模型 游戏AI 王者荣耀 强化学习 TiG框架 Large Language Models Game AI Honor of Kings Reinforcement Learning TiG Framework
相关文章