热点
"线性注意力" 相关文章
MiniMax押注线性注意力,让百万级长文本只用1/2700算力|对话MiniMax-01架构负责人钟怡然
智源社区 2025-04-17T13:17:52.000000Z
3700 次预训练寻找 “线性注意力” 非共识,MiniMax-01 开发者讲述 4 年探索
晚点LatePost 2025-03-09T16:15:42.000000Z
下一代 LLM 架构展望 | 奇绩潜空间活动报名
奇绩创坛 2025-03-02T17:01:52.000000Z
ICLR 2025 | 极性感知线性注意力!哈工深张正团队提出PolaFormer视觉基础模型
机器之心 2025-02-02T06:55:07.000000Z
线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署
机器之心 2025-01-31T06:49:51.000000Z
一家游戏公司给 Attention 架构整了点大活
橘子汽水铺 2025-01-25T17:15:44.000000Z
晚点对话 MiniMax 闫俊杰:千万别套用移动互联网的逻辑来做 AI
晚点LatePost 2025-01-20T16:10:59.000000Z
MiniMax 深夜首次开源,400万长文本,全新架构,挑战Transformer
橘子汽水铺 2025-01-19T13:02:33.000000Z
激进架构,400万上下文,彻底开源:MiniMax-01有点“Transformer时刻”的味道了
硅星人Pro 2025-01-19T07:24:15.000000Z
社区供稿 | MiniMax-01 开源: 新架构开启 Agent 时代
智源社区 2025-01-18T14:45:57.000000Z
MiniMax开年甩出一张王炸
虎嗅 2025-01-18T12:52:32.000000Z
只有模仿没有创新?国产 AI 用行动打破质疑
36kr 2025-01-17T09:03:31.000000Z
只有模仿没有创新?国产 AI 用行动打破质疑
极客公园 2025-01-17T05:36:57.000000Z
长文本“新王”诞生!400万字输入,MiniMax首次开源即王炸
夕小瑶科技说 2025-01-16T14:41:25.000000Z
突破Transformer架构,MiniMax 01首次开源,海外开发者再一次被中国模型震惊了
36kr 2025-01-16T11:52:27.000000Z
MiniMax 01首次开源 海外开发者被中国模型震惊
Cnbeta 2025-01-16T06:57:33.000000Z
MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支持400万长上下文
36氪 - 科技频道 2025-01-15T07:57:59.000000Z
稀宇科技发布并开源新一代 MiniMax 01 系列模型,参数量达 4560 亿
IT之家 2025-01-15T06:01:45.000000Z
MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支持400万长上下文
机器之心 2025-01-15T05:47:52.000000Z
405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+
新智元 2024-11-21T07:16:31.000000Z