英特尔近日在GitHub开源了基于AI的视频质量评估工具CGVQM(计算机图形视觉质量指标),旨在为游戏和实时渲染画面提供客观量化标准。该工具以PyTorch形式发布,配套研究论文同步公开。
当前游戏普遍依赖DLSS等超分技术提升性能,但易引发鬼影、闪烁等视觉问题,而传统画质指标(如PSNR)仅评估压缩伪影,无法全面反映实时渲染的复杂失真。为此,英特尔团队构建了CGVQD数据集,涵盖路径追踪、神经超采样等技术引发的多样化画质退化,并基于该数据集训练了CGVQM模型。该模型采用3D卷积神经网络(3D-ResNet-18架构),可同时捕捉时空维度的图像特征,更精准识别动态画质问题。
实验表明,CGVQM评估效果全面超越现有工具:复杂版CGVQM-5接近人类评分基线,简化版CGVQM-2亦稳居前三,且在未训练视频中展现良好泛化能力。未来可通过引入Transformer或光流信息进一步优化模型性能。