热点
"Mamba架构" 相关文章
Do Reasoning Models Really Need Transformers?: Researchers from TogetherAI, Cornell, Geneva, and Princeton Introduce M1—A Hybrid Mamba-Based AI that Matches SOTA Performance at 3x Inference Speed
MarkTechPost@AI 2025-04-18T04:05:34.000000Z
腾讯押注非Transformer!推理模型混合Mamba也能搞,深度思考也能秒回
智源社区 2025-03-23T02:01:48.000000Z
Testing which LLM architectures can do hidden serial reasoning
少点错误 2024-12-16T13:52:20.000000Z
多亏Transformer,Mamba更强了!仅用1%计算量达新SOTA
智源社区 2024-08-23T11:07:34.000000Z
多亏Transformer,Mamba更强了,仅用1%计算量达新SOTA
36kr 2024-08-22T09:03:19.000000Z
换掉Transformer,7B开源模型立刻登顶,任意长序列都能处理
36kr 2024-08-13T10:33:20.000000Z
Falcon Mamba 7B 开源模型登顶:换掉 Transformer,任意长序列都能处理
IT之家 2024-08-13T05:37:30.000000Z
Mamba写代码真的超越Transformer,原始论文入选顶流新会议
36kr-科技 2024-07-17T09:19:32.000000Z
Mamba真比Transformer更优吗?Mamba原作者:两个都要!混合架构才是最优解
智源社区 2024-07-16T06:06:06.000000Z