很多人说NVIDIA现在已经不重视游戏市场了,2020-1024年虽说消费级PC的全球出货量下滑了14%,搭载*显的游戏PC的出货量在这段时间却提升了多达51%。NVIDIA认为,这与自家*显软硬件技术的创新有莫大关联。

最近的CES 2026消费电子展上,NVIDIA表示去年发布的Blackwell显卡相比上代Ada Lovelace和更上一代的Ampere产品,同期销量都达成了将近2倍提升。“NVIDIA对于GeForce和高速增长PC游戏生态的承诺(commitment)都从未如此强烈。”

除了游戏,NVIDIA这两年也一直是AI PC概念的大力推进者——NVIDIA在AI PC市场的主力产品承载也是GeForce显卡。围绕GeForce显卡,NVIDIA这次在CES期间发布了与AI PC强相关的几项技术更新:DLSS 4.5、AI驱动的游戏交互、AI驱动的内容创作及AI工具的效率提升等。

我们挑其中最有趣的部分谈一谈——虽说没有新硬件发布,但这些技术也足够成为AI PC发展路径中,

DLSS诞生那会儿,AI PC的概念还没影儿。但借助GeForce显卡中的Tensor core来生成游戏像素与帧,是名副其实的AI特*。将其归类于当代AI PC范畴,细分在AI驱动的图形技术类别也是理所应当。

去年随Blackwell的GeForce RTX 50系显卡问世,DLSS也一同更新到了第4个大版本。我们在去年初的GeForce RTX 5080实测文章里谈到了DLSS 4的两大技术点(1)将部分CNN模型迭代为效果更好的Tran**ormer模型,

本次更新的DLSS 4.5也有两大技术点:(1)超分部分,采用第二代Tran**ormer模型,令超分画质进一步提升;(2)引入了动态多帧生成(dynamic multi frame generation),以及从DLSS 4的至多4x插帧提升到6x插帧。

NVIDIA称其为“提供***画质的第二代Tran**ormer”。媒体会上,推理侧相比初代Tran**ormer模型“用上了5倍算力(compute power)”(勘误:这里的5x compute是指训练新的模型用上了大约5x算力),更充分利用GeForce RTX 40与50系GPU的Tensor core资源。

第二代模型“对每个场景都有更深入的理解”,“从像素采样到运动矢量,提供更好的光照效果、更精细的边缘,以及更出色的运动清晰度”。媒体会的效果展示部分,NVIDIA明确提到DLSS 4.5超分,在时域稳定*(temporal stability)、鬼影(ghosting)、抗锯齿方面均有**改善。

有关6x多帧生成,“首先,这建立在第二代Tran**ormer超分模型效果更好的基础之上——对于帧生成模型而言,输入的画质越好,生成帧的质量也就越高。其次,我们在帧生成模型本身的frame pacing(帧平滑)和画质上也做了提升。”“结合起来,DLSS 4.5现在提供6x模式,针对每个渲染的帧可生成至多5个帧”。

与此同时,还有个更重要的特*,即“动态多帧生成”——这听起来是个按需实施不同帧生成倍率的技术。“可以把它想象成一个智能系统,在图形渲染压力很大的情况下,它能增加帧的生成数,确保在高刷新率屏幕上仍保持丝般顺滑;而在负载较轻时,就将帧生成数降到所需的水平。”

在《黑神话:悟空》这类图形算力重载游戏中,在开启路径追踪+全高画质的情况下,GeForce RTX 5080原本开启DLSS 4的4x多帧生成时,帧率在184fps;而在启用DLSS 4.5的6x多帧生成之后,帧率就能提升至246fps。

从NVIDIA对于DLSS 4.5增加帧生成倍率及引入动态帧生成的描述来看,NVIDIA是期望满足当下各种3A游戏在开启路径追踪的情况下,使用4K 240Hz屏幕游玩时,

在具体的技术部署和硬件支持上,DLSS 4.5的第二代Tran**ormer超分模型“支持所有RTX GPU”(应当囊括了20系、30系、40系、50系),藉由NVIDIA App的DLSS Override设置来达成对于“超过400款游戏”的支持,所以在Ada Lovelace和Blackwell GPU上跑会更快;

而动态多帧生成需要等到“2026年春季”,仅面向RTX 50系显卡,“在超过250款游戏和应用中”做出支持。

不难发现,DLSS 4.5可视作相同硬件条件下的游戏画质与*能提升。NVIDIA也在媒体会上提到,促成AI PC生态持续精进的三要素中,而且每六个月就让端侧模型与更早版本云上模型的距离进一步拉近。

包括Olla**, ComfyUI, Lla**.cpp, Unsloth等;仅1年时间,NVIDIA认为这种态势自然会在2026年延续。

“实现了免费的AI*能升级”。“在过去一个季度,我们让Lla**.cpp*能提升35%,Olla***能提升30%”,此次*能提升更新预计将在本月内达成,“LLM Studio等流行应用的更新很快也会到来”。

“而在创作AI前端部分,进行*能优化。在过去一个季度,实现了40%的*能提升。”而且因为Comfy加入了对于NVFP4和NVFP8量化模型文件(quantized checkpoint)的原生支持,所以如果“加上新格式的加速,NVFP4之下实现了平均3倍*能提升,NVFP8则大约是2倍”。这部分更新,到发稿之时应当是已经可用了。

有关ComfyUI的更新,*能和效率的提升还在于对VRAM显存的用量**下降。比如说基于BF16的FLUX.2,就能分别平均减少内存或显存80%和40%的用量。

与此同时,还可将一部分offload到系统内存之中——专门针对RTX GPU做的优化,让内存**非常**。”如此一来,即便是FLUX.2也能跑在PC端侧。上面这张图列出了FLUX.1, FLUX.2和Qwen I**ge模型,基于NVFP4和BF16做推理时的内存资源占用量。NVIDIA后续还将针对更多模型做相似的优化。

是针对去年已经发布预览版的音视频模型LTX-2——这是个权重开放模型(open-weights model),NVIDIA也进行了RTX优化。LTX-2本身是可生成4K 50fps规格20秒视频内容的模型,

需要70GB的内存空间,即便仅加载所需部分也要至少50GB RAM。而在NVFP8的加持下,LTX-2的内存用量下降到了26GB;配合前面提到可借用系统内存的内存offload方法,LTX-2因此能跑在16GB VRAM或以上规格的显卡之上;而且跑在GeForce RTX 5090显卡上的时候,最多可达成2倍的速度提升——大约3分钟即可生成10秒的视频。

此外,如可将720p分辨率的视频超分为4K),可达成高质量的视频超分,预计3月份进入到ComfyUI。

基于上面两项更新,在NVFP8+PyTorch优化的情况下,占用更少的VRAM、具备更出色的*能;然后再借助RTX Video将视频超分为4K分辨率。现在只需要3分钟。

上面这张图展示了一个典型的视频生成工作流,除了文字提示词,中间环节还包括3D对象的生成——令后续视频生成更具可控*——这一环节用到了Qwen SLM(创建提示词),做进一步的调整;

通过ComfyUI基于FLUX模型,将画面调整至真实照片风格;最后通过LTX-2做视频生成,以及用RTX Video将视频超分为4K分辨率。

其他更新:AI视频搜索、游戏助手、RTX Remix Logic...

受限于篇幅,更多NVIDIA在CES 2026上相关RTX及AI PC的技术更新,本文不再做详细阐述。其他的几个关键更新还包括:

比如说在《半条命2 RTX》之中,RTX Remix Logic能够检测门的状态:当门开启时,围绕玩家的环境就会发生变化,应用包括积光, 粒子, 材料与光照属*变化等各种技术,为玩家创造不一样的环境体验;或者游戏中的僵尸靠近,但尚未进入玩家视野时,Remix Logic检测到这一**,就能对画面额外增加色差、晕影等效果,造成画面压迫感、提供更沉浸的游戏体验等等...

在某些机制系统相对复杂的游戏中,引入提出建议的角色(advisor)——《全面战争:法老》就基于NVIDIA ACE加入了这样的NPC,让玩家能够做相应的交流。能够基于玩家当前所处游戏阶段与状态做实时的理解,辅助玩家学习游戏系统,并以游戏NPC角色的方式提供游玩建议。

开发商Creative Assembly预计很快就会发布所谓的Total War Advisor Playtest计划,并以此为参考,来规划未来的《全面战争》系列游戏如何实施AI特*。

另外G-SYNC还引入了一项环境适应技术(Ambient Adaptive Technology),主要基于显示器的光传感器来感知玩家周遭的环境光色温与亮度,让显示器与之更为匹配——听起来有些类似于手机上常见的所谓原彩显示;

支持G-SYNC Pulsar和环境适应技术的4款显示器(均为1440p 360Hz规格)预计将在12月7日上市...

还在持续于PC端侧扩散:除了底层硬件之外,原本那些无法跑在PC本地的AI特*,随着中间件、工具、模型技术的发展和成*,现如今也逐渐走到了端侧,甚至媲美曾经的云上AI。

也未见得不同竞争对手打造的AI PC生态,哪个更有优势;但从这些更新也不难看出,GeForce RTX显卡驱动的AI PC,在面向有高*能需求的游戏及严肃生产力应用时,借助其强大的AI生态,仍然有着不可撼动的市场优势地位。

本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。