智源社区 02月24日
谷歌Fellow级大佬出走!17年老将吴永辉加盟字节,亲自操刀大模型研发
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

吴永辉博士,谷歌17年老将,已正式加入字节跳动,负责AI基础研究领域的工作。他将担任大模型团队Seed基础研究负责人,专注于大模型基础研究搜索、AI for Science科研工作,直接向CEO梁汝波汇报。吴永辉在谷歌期间是Google Fellow级别,曾是谷歌神经机器翻译和RankBrain项目的核心贡献者,也参与了Gemini模型的开发,是Gemini应用总技术负责人之一,也参与了Gemini 1.5的研发,将大模型上下文扩展到100万token。他还是Palm 2大模型训练团队的核心贡献者。其研究兴趣包括信息检索、排序学习、机器学习、机器翻译、自然语言处理等领域。

👨‍🎓吴永辉博士是谷歌AI领域的资深专家,拥有南京大学计算机学士学位和加州大学河滨分校的数据科学硕士及计算机科学博士学位。他于2008年加入谷歌,历任排序工程师、Google Brain团队研究员、DeepMind研究副总裁等职,最终晋升为Google Fellow,是谷歌顶尖工程师的象征。

🤖吴永辉博士在谷歌期间,为多个重要项目做出了核心贡献。他是谷歌神经机器翻译系统(GNMT)和RankBrain项目的核心成员,GNMT通过深度LSTM网络和注意力机制,显著提高了机器翻译的准确性,并在WMT’14基准测试中将翻译错误减少了60%。他还参与了语音识别模型Conformer的研发,该模型通过结合卷积和Transformer的优势,在LibriSpeech测试集上取得了当时最佳的效果。

🏢吴永辉博士加盟字节跳动,担任大模型团队Seed基础研究负责人,直接向CEO梁汝波汇报。他的加入无疑将增强字节跳动在AI基础研究领域的实力,特别是在大模型、搜索和AI for Science等方向。考虑到他在谷歌Gemini项目中的参与经验,他对字节跳动在该领域的贡献备受期待。

📚吴永辉博士在学术界也享有盛誉,截至目前,他的论文总被引数超过5万,h-index为72。他发表的关于GNMT和Conformer的论文,在自然语言处理和语音识别领域具有重要影响力。

编辑:桃子

谷歌17年老将,正式加入字节跳动。

据报道,吴永辉博士已确认离职谷歌,加盟字节负责AI基础研究领域的工作。

他将在字节担任大模型团队Seed基础研究负责人,专注于大模型基础研究搜索、AI for Science科研工作,直接向CEO梁汝波汇报。

谷歌AI扫地僧,17年AI老将


2008年9月,吴永辉博士最初作为一名排序工程师加入谷歌,致力于改进谷歌核心网页搜索排名的算法。

自2015年1月起,他转入了Google Brain团队,专注于深度学习及其应用研究。他是谷歌神经机器翻译和RankBrain项目的核心贡献者,推动了语音识别的技术发展。

直到2023年,他又晋升为谷歌DeepMind研究副总裁,Google Fellow级别。

要知道,Google Fellow是谷歌顶尖工程师才能享有的称号,只有极少数的员工能够获得这个头衔。

有网友为此,还做了非常详细的解说,成为Google Fellow(10级)是一个终身荣誉。

值得一提的是,目前谷歌只有两位Senior Fellow(11级,相当于高级副总裁):Sanjay Ghemawat和Jeff Dean。

以下是Google工程师的职级体系,从1级开始:

L1:IT支持人员

L2:应届大学毕业生

L3:拥有硕士学位

L4:需要几年工作经验或博士学位

L5:大多数工程师的职业发展止步于此

L6:顶尖10%的工程师,他们的能力往往能决定项目的成败

L7:具有长期优秀业绩记录的L6级工程师

L8:Principal Engineer(首席工程师),通常负责某个重要产品或基础设施

L9:Distinguished Engineer(杰出工程师),令人敬仰的存在

L10:Google Fellow,这是终身荣誉,获得者通常是该领域全球顶尖专家

L11:Google Senior Fellow,目前公司仅有的两位11级工程师是Jeff Dean和Sanjay Ghemawat

吴永辉曾获得了南京大学计算机学士学位,并于2008年获得了加州大学河滨分校的数据科学硕士学位和计算机科学博士学位。

他的研究兴趣包括信息检索、排序学习、机器学习、机器翻译、自然语言处理等领域。

Gemini背后核心贡献者


作为谷歌大牛,吴永辉参与了Gemini模型的开发,在团队贡献名单中,是Gemini应用总技术负责人之一。

他也参与了Gemini 1.5的研发,将大模型上下文扩展到100万token。

论文地址:https://arxiv.org/pdf/2312.11805

他还是Palm 2大模型训练团队的核心贡献者。

论文地址:https://arxiv.org/pdf/2305.10403

根据谷歌Scholar个人介绍,截至目前,吴永辉总被引数超5万,h-index为72。

其中,被引数最高的文章便是2016年发表的——Google's Neural Machine Translation System。

论文地址:https://arxiv.org/pdf/1609.08144

这篇论文主要提出了神经机器翻译系统:GNMT,由一个深度LSTM网络构成,包含8层编码器和8层解码器,使用了注意力机制和残差连接。

为了提高并行性并缩短训练时间,注意力机制将解码器的底层连接到编码器的顶层。

为了更好地处理稀有词汇,作者还将词汇分解为一组有限的常见子词单元(wordpieces),同时用于输入和输出。这种方法在「字符」分隔模型的灵活性和「词」分隔模型的高效性之间提供了良好的平衡,能够自然处理稀有词汇的翻译,最终提高了系统的整体准确性。

在WMT’14 英语-法语和英语-德语基准测试中,通过对一组独立简单句子的人工对比评估,相比于谷歌基于短语的生产系统,GNMT将翻译错误减少了60%。

其次,被引第二高是2020年发表的Conformer,一个语音识别模型,基于Transformer改进而来。

主要改进的点在于,提取长序列依赖的时候更有效,而卷积则擅长提取局部特征,因此将卷积应用于Transformer的Encoder层,同时提升模型在长期序列和局部特征上的效果。

实际证明,该方法确实有效,在当时的LibriSpeech测试集上取得了最好的效果。

参考资料:
https://scholar.google.com/citations?user=55FnA9wAAAAJ&hl=en
https://www.theinformation.com/articles/veteran-google-researcher-joins-bytedance-as-ai-rivalry-intensifies



内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

吴永辉 字节跳动 谷歌 AI 大模型
相关文章