机器之心 04月27日 23:36
OpenAI、谷歌等一线大模型科学家公开课,斯坦福CS 25春季上新!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

斯坦福大学CS25课程“Transformers United V5”汇集了来自Google DeepMind、OpenAI、Meta等顶尖机构的研究者,深入探讨AI领域的最新突破。课程面向公众开放,提供现场旁听和在线直播,并提供课程视频。课程内容涵盖Transformer架构、检索增强生成、大型语言模型等前沿技术,以及Geoffrey Hinton、Andrej Karpathy等行业领袖的精彩分享,为AI爱好者提供了难得的学习机会。

🗣️CS25课程是斯坦福大学开设的,专门讲解Transformer的课程,邀请了众多AI领域知名研究者担任讲师。

🌍课程主题涵盖了Transformer架构、检索增强生成(RAG)以及大型语言模型(LLM)等前沿技术。

👨‍🏫课程讲师包括Google DeepMind的Denny Zhou、OpenAI的Hongyu Ren和Meta的Andrew Brown等,分享最新研究成果。

💻课程完全开放,提供现场旁听和Zoom直播,同时提供课程视频,方便学习者随时随地学习。

📚课程回顾了Geoffrey Hinton、Andrej Karpathy等人的精彩分享,深入探讨神经网络、自注意力机制和大型语言模型等核心内容。

2025-04-26 12:33 北京

Denny Zhou、Hongyu Ren等亲自授课。

机器之心报道

机器之心编辑部


在斯坦福,有一门专门讲 Transformer 的课程,名叫 CS 25。这门课曾经邀请过 Geoffrey Hinton、Andrej Karpathy 以及 OpenAI 的 Hyung Won Chung、Jason Wei 等一线大模型研究科学家担任讲师,在 AI 社区引起广泛关注。



最近,这门课又上新了。这一春季学期课程名为「CS25: Transformers United V5」,邀请了 Google DeepMind 推理团队创立者和现任负责人 Denny Zhou、OpenAI Canvas 项目负责人 Karina Nguyen、OpenAI 研究科学家 Hongyu Ren(任泓宇)、Meta 视频生成团队研究科学家 Andrew Brown 等知名研究者,深入探讨 AI 领域的最新突破。


而且,这门课是完全开放的,任何人都可以现场旁听或加入 Zoon 直播,无需注册或与斯坦福大学建立关联。




课程结束后,他们还会把课程的视频上传到官方 YouTube 账号。目前,新学期视频第一期已经上传。




整个学期的课程表如下:



想要听直播的同学记得在太平洋夏令时间每周二下午 3:00 - 4:20(北京时间每周三上午 6:00 - 7:20)蹲守,具体信息请参考官方网站。


往期热门课程


V2:Geoffrey Hinton——Representing Part-Whole Hierarchies in a Neural Network


AI 领域传奇人物 Geoffrey Hinton(「深度学习教父」)分享了他对神经网络中部分-整体层次结构的最新研究,提出了 GLOM 模型,旨在模拟人类视觉系统处理复杂场景的能力。


讲座探讨了 GLOM 如何通过动态解析树结构增强 Transformer 在视觉任务中的表现,解决自注意力机制的计算效率瓶颈。Hinton 结合深度学习的演变历程,从感知机到 RNN 再到 Transformer,展望了神经网络在模拟认知过程和提升视觉理解中的未来潜力。



V2:Andrej Karpathy——Introduction to Transformers

Andrej Karpathy(前 Tesla AI 总监、OpenAI 研究员)系统介绍了 Transformer 架构的原理与影响。他从 2017 年《Attention is All You Need》论文出发,拆解了自注意力机制(Self-Attention)、多头注意力(Multi-Head Attention)及 Transformer 在大型语言模型(如 ChatGPT)中的核心作用。


讲座还探讨了 Vision Transformer(ViT)等跨领域应用,并展望了模型高效化和多模态学习的未来。Karpathy 结合自身从斯坦福学生到业界先锋的经历,回顾了深度学习从 RNN 到 Transformer 的演变。



V3:Douwe Kiela——Retrieval Augmented Language Models


Douwe Kiela(Contextual AI 首席执行官兼斯坦福符号系统客座教授)深入探讨了检索增强生成(Retrieval-Augmented Generation, RAG)作为解决大型语言模型(LLM)局限性的关键技术。讲座介绍了 RAG 的基本概念,即通过外部检索器提供上下文信息,缓解幻觉(hallucination)、信息时效性和定制化问题。


Kiela 回顾了语言模型的历史,追溯至 1991 年的神经语言模型,澄清了 OpenAI 并非首创的误解,并调研了 RAG 的最新进展,如 Realm、Atlas 和 Retro 架构,分析其优劣。他还探讨了 RAG 与长上下文模型的效率对比、指令微调(instruction tuning)的重要性以及未来的研究方向,如多模态 RAG 和预训练优化。



V4:Jason Wei & Hyung Won Chung of OpenAI


OpenAI 研究科学家 Jason Wei 和 Hyung Won Chung 分享了关于大型语言模型(LLM)和 Transformer 架构的洞见。


Jason Wei 探讨了语言模型的直观理解,强调下一词预测作为大规模多任务学习的本质,并分析了扩展律(scaling laws)与个体任务的涌现能力。Hyung Won Chung 则从历史视角审视 Transformer 架构的演变,聚焦计算成本指数下降的驱动作用,提出通过连接过去与现在预测 AI 未来的统一视角。


两位讲者结合在 OpenAI 的工作经验(如 FLAN-T5、Codex),展望了 Transformer 在多模态和通用 AI 中的潜力。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

CS25 Transformer 人工智能 斯坦福
相关文章