热点
关于我们
xx
xx
"
模型扩展
" 相关文章
微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好
机器之心
2025-06-02T06:54:10.000000Z
不只靠“堆参数”:Qwen新突破ParScale,用“并行”让模型更聪明
掘金 人工智能
2025-05-20T02:03:02.000000Z
Multimodal Models Don’t Need Late Fusion: Apple Researchers Show Early-Fusion Architectures are more Scalable, Efficient, and Modality-Agnostic
MarkTechPost@AI
2025-04-14T22:20:29.000000Z
谷歌超硬核教科书来了!Jeff Dean带货揭Gemini训练秘籍:在TPU上scaling
新智元
2025-02-24T01:15:55.000000Z
英伟达联手MIT清北发布SANA 1.5!线性扩散Transformer再刷文生图新SOTA
智源社区
2025-02-08T12:52:14.000000Z
Anthropic 联合创始人:AI 尚未发展至极限,2025 年将继续高速狂飙
IT之家
2024-12-26T01:25:16.000000Z
Is AI progress slowing down?
AI Snake Oil
2024-12-18T16:51:49.000000Z
Token化一切,甚至网络,北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过
36氪 - 科技频道
2024-11-14T11:43:46.000000Z
Token化一切,甚至网络!北大&谷歌&马普所提出TokenFormer,Transformer从来没有这么灵活过!
机器之心
2024-11-14T05:54:48.000000Z
黄仁勋:我从不在乎市场份额,英伟达唯一目标是创造新市场
智源社区
2024-10-25T00:38:32.000000Z
Microsoft Releases GRIN MoE: A Gradient-Informed Mixture of Experts MoE Model for Efficient and Scalable Deep Learning
MarkTechPost@AI
2024-09-21T17:35:32.000000Z