热点
"模型压缩" 相关文章
【AI大模型入门指南】概念与专有名词详解 (二)
掘金 人工智能 2025-06-11T15:15:39.000000Z
技术前沿:MCP如何重塑大模型性能架构
掘金 人工智能 2025-06-11T09:34:02.000000Z
LLM省钱大测评!48块GH200,首个百亿级参数量实证
智源社区 2025-05-30T07:48:50.000000Z
Enhancing AI Inference: Advanced Techniques and Best Practices
Unite.AI 2025-05-28T17:52:34.000000Z
对话27岁博导张林峰:模型压缩获CVPR满分有点意外,上海交大像我这样年轻老师很多
智源社区 2025-05-28T01:17:54.000000Z
对话 27 岁博导张林峰:模型压缩获 CVPR 满分有点意外,上海交大像我这样年轻老师很多
掘金 人工智能 2025-05-27T11:08:05.000000Z
对话27岁博导张林峰:模型压缩获CVPR满分有点意外,上海交大像我这样年轻老师很多
36kr 2025-05-27T03:14:11.000000Z
AI领域中的MCP快速上手指南
掘金 人工智能 2025-05-16T03:03:02.000000Z
微软推出bitnet-b1.58-2B-4T:极致的量化,小巧而强大
魔搭ModelScope社区 2025-04-24T14:03:31.000000Z
LLMs Can Now Retain High Accuracy at 2-Bit Precision: Researchers from UNC Chapel Hill Introduce TACQ, a Task-Aware Quantization Approach that Preserves Critical Weight Circuits for Compression Without Performance Loss
MarkTechPost@AI 2025-04-22T07:05:37.000000Z
Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强
新智元 2025-04-20T10:06:33.000000Z
Model Compression Without Compromise: Loop-Residual Neural Networks Show Comparable Results to Larger GPT-2 Variants Using Iterative Refinement
MarkTechPost@AI 2025-04-16T06:52:29.000000Z
大语言模型的训练后量化算法综述 | 得物技术
得物技术 2025-04-14T13:27:41.000000Z
LLMs No Longer Require Powerful Servers: Researchers from MIT, KAUST, ISTA, and Yandex Introduce a New AI Approach to Rapidly Compress Large Language Models without a Significant Loss of Quality
MarkTechPost@AI 2025-04-11T17:15:30.000000Z
95后博导张林峰专访:6年前提出自蒸馏算法,高效AI助推大模型时代丨独家
智源社区 2025-03-26T04:33:39.000000Z
明日直播|大语言模型的知识蒸馏,一站式解释方法、技能和应用
智源社区 2025-03-11T08:02:11.000000Z
全新CoD颠覆推理范式,准确率接近但token消耗成倍降低
36kr 2025-03-10T11:42:38.000000Z
热门报告|大语言模型的知识蒸馏,一站式解释方法、技能和应用
智源社区 2025-03-08T08:21:23.000000Z
大模型"蒸馏"是什么?
云中江树 2025-03-03T09:23:59.000000Z
Stanford 团队展现 RWKV 多智能体优势,UVa 团队突破 RWKV 端侧性能
RWKV元始智能 2025-02-21T16:24:57.000000Z