7月9日红杉资本与微软CTO开展AI对谈,Kevin Scott提及Scaling law,认为其适用于当前业态,该定律最早由OpenAI提出,内涵是大模型性能与计算量等相关,与模型结构基本无关,Kevin Scott指出持续扩张可让模型更优
🎯Scaling law最早由OpenAI在2020年论文中提出,强调大模型的最终性能主要与计算量、模型参数量和训练数据量的大小相关,而和模型的具体结构基本无关,这为理解大模型的性能提供了重要的理论依据
💪Kevin Scott认为Scaling law仍适用于当前业态,在扩大规模时边际效益未递减,持续的扩张能使模型更便宜且更强大,让复杂的事情变得可能,体现了该定律在实际应用中的重要性
📈在一代又一代模型的更迭中,Scaling law的作用不断上演,说明了其具有较强的持续性和适应性,对推动模型的发展和进步起到了积极的作用
7月9日,红杉资本与微软CTO Kevin Scott开展了一场以AI为题的对谈。
访谈中,Kevin Scott提及了“Scaling law”,他认为这一定律仍适用于当前的业态——在扩大规模的同时,边际效益并没有递减。
大模型的Scaling law最早由OpenAI在2020年的一篇论文中提出,其内涵是,大模型的最终性能主要与计算量、模型参数量和训练数据量三者的大小相关,而与模型的具体结构(层数/深度/宽度)基本无关。
Kevin Scott指出,持续的扩张能够让模型更便宜、更强大,“让更复杂的事情变得可能”,这在一代又一代模型更迭中“不断上演”。