清华大学KVCache.AI团队联合趋境科技发布KTransformers开源项目重大更新,成功突破大模型推理算力门槛。该项目支持在24G显存的设备上本地运行DeepSeek-R1、V3的671B满血版。其核心在于异构计算策略,通过稀疏性利用、量化与算子优化以及CUDA Graph加速等技术,将显存占用压缩至24GB,并提升了运算效率。传统方案需要8卡A100服务器,成本高昂,而现在单卡RTX 4090方案成本大幅降低,功耗也更低,更适合中小团队与个人开发者。
💡KTransformers项目通过异构计算策略,实现了在24G显存的RTX 4090上本地运行DeepSeek-R1、V3的671B满血版大模型,打破了传统大模型推理的算力限制。
🧮该项目采用了稀疏性利用技术,将MoE架构中非共享的稀疏矩阵卸载至CPU内存,结合高速算子处理,显著降低了显存占用,使得24G显存成为可能。
🚀通过4bit量化技术和Marlin GPU算子,KTransformers项目将效率提升了3.87倍;CPU端通过llamafile实现多线程并行,预处理速度高达286 tokens/s;CUDA Graph加速减少了CPU/GPU通信开销,生成速度达14 tokens/s。
💰传统方案需要8卡A100服务器,成本超百万,按需计费每小时数千元。现在,单卡RTX 4090方案整机成本约2万元,功耗80W,大大降低了成本,适合中小团队与个人开发者。
快科技2月15日消息,清华团队突破大模型算力难题,这让英伟达情何以堪。
据国内媒体报道称,清华大学KVCache.AI团队联合趋境科技发布的KTransformers开源项目迎来重大更新,成功打破大模型推理算力门槛。
此次KTransformers项目更新带来重大突破,支持在24G显存(4090D)的设备上本地运行DeepSeek-R1、V3的671B满血版。
KTransformers项目的核心在于异构计算策略:稀疏性利用:MoE架构每次仅激活部分专家模块,团队将非共享的稀疏矩阵卸载至CPU内存,结合高速算子处理,显存占用压缩至24GB。
量化与算子优化:采用4bit量化技术,配合Marlin GPU算子,效率提升3.87倍;CPU端通过llamafile实现多线程并行,预处理速度高达286 tokens/s。
CUDA Graph加速:减少CPU/GPU通信开销,单次解码仅需一次完整的CUDA Graph调用,生成速度达14 tokens/s。
这带来了怎样的后果呢?传统方案:8卡A100服务器成本超百万,按需计费每小时数千元。
现在,单卡RTX 4090方案:整机成本约2万元,功耗80W,适合中小团队与个人开发者。
NVIDIA RTX 4090运行DeepSeek-R1满血版的案例,不仅是技术奇迹,更是开源精神与硬件潜能结合的典范。它证明:在AI狂飙的时代,创新往往源于对“不可能”的挑战。
