智源社区 2024年07月16日
博士论文 | 普林斯顿 2023 | 了解过度参数化对神经网络特征的影响,使用低维置信模型对昂贵、嘈杂的函数进行最优学习161页
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文探讨了过度参数化神经网络与较小网络在特征学习能力上的差异,并提出了KGLQ策略优化昂贵黑盒函数。研究发现,小网络难以捕捉到过参数化网络的关键特征,而这些特征正是过参数化网络性能优势的来源。同时,KGLQ策略在处理有限预算的优化问题中展现出竞争力。

🧠 文章首先比较了过度参数化神经网络与较小网络的特征表达能力,指出小网络无法完全复现大网络的关键特征,这些特征对网络性能至关重要。

🔍 提出了一种方法来具体分析过度参数化网络的学习特性,并通过一个玩具问题证实了某些特征只能由过参数化网络学习。

💡 KGLQ策略被提出用于优化昂贵的黑盒函数,该方法利用二次函数局部近似真实函数,并处理了异方差噪声问题,提高了优化效率。

📈 通过实验评估,KGLQ策略在小预算优化问题上的表现优于现有策略,展现了其在处理有限资源时的优势。

🌍 文章进一步发展了基于KGLQ概念的全局置信模型,并提出了HKGLQ策略,证明了其在较大预算下的渐近收敛性。

本论文研究了机器学习优化中两个不同但重要的主题。

第一个主题将过度参数化的神经网络与较小的网络的特征进行比较。第 2 章介绍了一种比较过度参数化网络和较小网络特征表达能力的方法。使用这种方法,它发现较小的网络无法完全捕捉过度参数化网络的特征,而这些特征是过度参数化网络性能优越的原因。本章还通过一个玩具问题证明了某些特征只能通过过度参数化网络来学习。

论文的第二个主题集中在优化昂贵的黑盒函数和有限的评估。在第 3 章中,提出了一种称为 KGLQ 策略的新策略,它使用二次函数在局部近似真实函数,并通过将其建模为不同于测量噪声的异方差噪声来整合结构偏差。这种方法解决了在存在参数模型的情况下使用信息值策略时出现的问题。本章评估的几个测试问题证明了,与现有的小预算策略相比,KGLQ 策略的表现更具竞争力。第 4 章介绍了一种利用 KGLQ 背后概念的全局置信模型。开发了一个分层置信模型,通过考虑全局置信模型的各种估计水平来产生近似值。使用此分层模型,开发了 HKGLQ 策略,并证明其渐近收敛。与渐近收敛策略相比,测试问题上的实验提供了有关 KGLQ 在较大预算下的表现的见解。

论文题目:From Learning to Optimal Learning: Understanding the Impact of Overparameterization on Features of Neural Networks to Optimal Learning of Expensive, Noisy Functions Using Low-Dimensional Belief Models

作者Duzgun, Ahmet Cagri

类型:2023年博士论文

学校:Princeton University(美国普林斯顿大学

下载链接:

链接: https://pan.baidu.com/s/1cy8mWQEvv8nHZ2iWWEuIJA?pwd=aicb

硕博论文汇总:

链接: https://pan.baidu.com/s/1Gv3R58pgUfHPu4PYFhCSJw?pwd=svp5

特征 x 初始化时神经元的激活。灰色和白色区域分别代表非激活区和激活区。如果 W(0)[2, :] 不在 x(或任何其他特征)的激活区内,则它不会学习 x(或任何其他特征)。W(0)[1, :] 和 W(0)[3, :] 都在特征 x 的激活区内,并且都可以学习特征 x。但是,W(0)[3, :] 更有可能学习特征 x,因为它距离激活超平面较远。另一方面,W(0)[1, :] 可能会因权重衰减的压力和梯度的弱信号而被停用,尤其是在训练早期梯度中存在更多噪声时。

阴影区域表示真实值与近似值之间的差异。


微信群                  公众号

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

神经网络 过参数化 特征学习 KGLQ策略 优化算法
相关文章