
體育資訊10月4日稱 據(jù) decoder 今天報道,騰訊研究人員最近用《王者榮耀》游戲作為訓練平臺,探索如何讓AI在游戲中學會“戰(zhàn)略性思考”,研究全新 TiG(Think in Games)框架,相關(guān)成果已發(fā)表于 Hugging Face 平臺和 arXiv 期刊。
研究團隊指出,目前的 AI 模型存在明顯的功能鴻溝,以游戲為取向的 AI 能正常游玩但無法理解自己所做的決策,而語言模型雖然可以推理策略,但很難真正執(zhí)行操作,為此他們研發(fā)了全新 TiG 框架,讓模型在游戲中同步思考、行動。
團隊選擇以《王者榮耀》游戲作為訓練范本,先使用匿名且標準化的賽事數(shù)據(jù)定義推上路、擊殺暴君、守家等 40 種宏觀行動,勝負回數(shù)均衡,AI 模型們必須要在每個定義好的場景下選擇最佳策略,并解釋其戰(zhàn)略緣由。
具體來說,訓練分為兩個階段,首先是在監(jiān)督中學習,弄清楚這些策略的基本機制;隨后通過獎勵機制進行強化學習,如果行動正確能得 1 分,錯誤行動則得 0 分。
隨后團隊測試了多種語言模型,涵蓋 Qwen2.5(7B、14B、32B)、Qwen3-14B 模型,并使用 DeepSeek-R1 大模型作為對照組;先從 DeepSeek-R1 提煉高質(zhì)量訓練數(shù)據(jù),然后使用群體相對策略優(yōu)化(GRPO)技術(shù),比較不同策略之間的優(yōu)劣。
最終經(jīng)過 TiG 框架訓練的模型不僅能制定行動計劃,還能解釋原因,例如 AI 會指出某個防御塔防守薄弱,是理想的進攻目標,但需要注意埋伏的敵人。模型訓練后仍保持原有的文本理解、數(shù)學推理與問答能力。
最終測試結(jié)果如下:
對照組 DeepSeek-R1:決策準確率達 86.67%
Qwen3-14B:決策準確率達 90.91%,超越 DeepSeek-R1
Qwen2.5-32B :準確率從 66.67% 提升至 86.84%
Qwen2.5-14B:準確率從 53.25% 提升至 83.12%
LPL全明星??怂勾髞y斗英雄麥克瘋Rookie:塔姆怎么這么小啊
體育資訊12月8日稱 英雄聯(lián)盟賽事發(fā)布了LPL全明星??怂勾髞y斗的英雄麥克瘋; ...
2025-12-08
原價7元的寶可夢卡牌竟賣到36萬元!拍賣所得將全部捐給慈善機構(gòu)
體育資訊12月8日稱?根據(jù)外媒Gamerant的消息稱,在12月的第一個周末舉行的一場...
2025-12-08
這么自信!國產(chǎn)新游《逆神者》預計上線三年后銷量超1000萬份!
體育資訊12月8日稱?由國內(nèi)廠商帕斯亞負責制作和發(fā)行的國風背景蒸汽朋克角色...
2025-12-08
Faker:以全球總決賽冠軍這個目標為動力不斷實現(xiàn)自我成長和進步
體育資訊12月8日稱 KeSPA第三日T1戰(zhàn)勝TL取得三連勝,韓媒INVEN發(fā)布T1中單Faker...
2025-12-08
Peanut直播展示Lehends送的禮物:百齡壇威士忌
體育資訊12月8日稱 Peanut直播展示Lehends送的禮物:百齡壇威士忌。...
2025-12-08