在今日举行的2024年度中国游戏产业年会上,巨人网络正式推出了其自主研发的“千影QianYing”有声游戏生成大模型。该模型由两大核心部分组成:游戏视频生成大模型YingGame和视频配音大模型YingSound。

YingGame是巨人网络AI Lab携手清华大学SATLab共同研发的成果,专为开放世界游戏设计。该模型首次实现了角色多样动作的交互控制,允许用户自定义游戏角色,并具备出色的游戏物理仿真特性。这一突破性的技术有望为游戏开发者提供更加丰富的创作工具和更广阔的想象空间。

与此同时,巨人网络还发布了视频配音大模型YingSound。该模型由巨人网络AI Lab联合西北工业大学ASLP Lab和浙江大学共同研发,是一种视频到音频(V2A)的转换模型。YingSound支持从视频或视频文本结合的方式生成音效,具备时间对齐和视频语义理解能力,能够端到端地为各类视频,包括真实场景视频、动漫视频和游戏视频等,生成多种类型的音效。这一技术的应用将极大地提升游戏视频的沉浸感和真实感。

巨人网络发布“千影QianYing”有声游戏生成大模型的初衷,是希望通过这一平台降低游戏开发的门槛,让没有编程和开发背景的游戏爱好者也能实现自己的创意。巨人网络董事长史玉柱此前曾表示,公司正在探索打造一个AI游戏孵化平台,旨在让普通人也能参与到游戏开发中来。

史玉柱还指出,在游戏研发阶段,AI可以作为一个辅助工具,提高美术和程序方面的效率,但“游戏+AI”的真正价值在于游戏策划。AI能够快速准确地找到最佳数值,为游戏策划提供有力的支持。