index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
本报告介绍了Transformer²,一种创新的自适应框架,旨在解决传统微调方法在大型语言模型(LLMs)中面临的挑战。Transformer²通过选择性调整权重矩阵的奇异成分,实现对新任务的实时适应。该框架在推理过程中采用两步机制:首先,分发系统识别任务特性;然后,通过强化学习训练的特定任务“专家”向量动态混合,为输入提示词提供针对性行为。与LoRA等方法相比,Transformer²在性能、参数效率和多功能性方面均表现更优,为提高LLMs的适应性和特定任务性能提供了可扩展、高效的解决方案。孙奇博士将分享这一研究成果,为构建真正动态、自组织的人工智能系统奠定基石。
💡Transformer²是一种自适应框架,通过调整权重矩阵的奇异成分来实时适应新任务,克服了传统微调方法的局限性。
🤖该框架采用两步推理机制:任务特性识别和“专家”向量动态混合,从而为输入提示词提供定制化处理。
🥇Transformer²在性能、参数效率和多功能性上优于LoRA等方法,适用于不同的大型语言模型架构和模态,包括视觉-语言任务。
📚孙奇博士的报告将深入探讨Transformer²的原理和优势,为构建动态、自组织的人工智能系统提供新的思路。

报告主题:Transformer²:自适应的大语言模型
报告日期:03月04日(本周二)10:30-11:30
报告要点:
自适应大型语言模型(LLMs)旨在解决传统微调方法带来的挑战,传统方法通常计算密集且处理多样化任务的能力有限。我们推出的"Transformer²"是一种创新自适应框架,它能通过选择性调整权重矩阵的奇异成分,实时适应全新任务。在推理过程中采用两步机制:首先由分发系统识别任务特性,然后将通过强化学习训练的特定任务"专家"向量动态混合,为输入的提示词进行针对性行为。与LoRA等方法相比,我们的方法性能更优、参数更少且效率更高。此外Transformer²在不同的大型语言模型架构和模态(包括视觉-语言任务)中都表现出了多功能性,为提高大型语言模型的适应性和特定任务性能提供了可扩展、高效的解决方案,为真正动态、自组织的人工智能系统提供了基石。报告嘉宾:
孙奇现为东京科学大学的计算机科学系的博士生,师从Rio Yokota,同时是日本AI研究公司SakanaAI的创始团队的兼职研究员。在此之前,孙奇在大连理工大学获得计算机学士学位,他的研究兴趣是如何将自然启发式的想法融合到基础大模型,并在ICLR,AAAI及NMI等会议/期刊中发表过论文。
扫码报名
更多热门报告


内容中包含的图片若涉及版权问题,请及时与我们联系删除