HuggingFace 每日AI论文速递 02月07日
2025.02.06 | 数据优化提升模型性能,模拟市场再现复杂行为。
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本期AI速递精选了十篇前沿论文,涵盖了小型语言模型训练、金融市场行为模拟、大语言模型推理、多模态推理、模型缩放、越狱技术、SVG合成、令牌混合以及教师模型攻击等多个热点领域。从SmolLM2的数据驱动训练到TwinMarket的可扩展模拟,再到LIMO的精简推理和LayerTracer的认知对齐合成,这些研究探索了AI技术的各种可能性,并为未来的发展方向提供了新的思路。此外,还关注了安全问题,如通用多提示的越狱技术和语言模型蒸馏中的教师模型攻击。

🤖 **SmolLM2:以数据为中心的小型语言模型训练**,探索了如何在数据量有限的情况下,提升小型语言模型的性能,为资源受限场景下的AI应用提供了新思路。

🌐 **TwinMarket:可扩展的金融市场行为与社会模拟**,通过构建大规模的行为模拟系统,帮助研究人员更好地理解金融市场的复杂动态,并为风险管理和政策制定提供参考。

🧠 **LIMO:少即是多的推理**,挑战了传统大语言模型依赖大规模参数的范式,探索了如何通过更精简的模型结构实现高效推理,为AI的轻量化发展提供了新方向。

🎨 **LayerTracer:基于扩散变换器的认知对齐分层SVG合成**,该技术通过扩散模型和Transformer架构,实现了认知对齐的分层SVG合成,为图像生成和编辑领域带来了新的突破。

本期的 10 篇论文如下:

[00:26] ? SmolLM2: When Smol Goes Big -- Data-Centric Training of a Small Language Model(SmolLM2:当小型模型走向大型化——以数据为中心的小型语言模型训练)

[01:08] ? TwinMarket: A Scalable Behavioral and Social Simulation for Financial Markets(双市场:一种可扩展的金融市场的行为与社会模拟)

[01:45] ? Demystifying Long Chain-of-Thought Reasoning in LLMs(揭秘大语言模型中的长链推理)

[02:23] ? LIMO: Less is More for Reasoning(LIMO:少即是多的推理)

[03:15] ? Boosting Multimodal Reasoning with MCTS-Automated Structured Thinking(通过蒙特卡洛树搜索提升多模态推理的自动化结构化思考)

[04:04] ? A Probabilistic Inference Approach to Inference-Time Scaling of LLMs using Particle-Based Monte Carlo Methods(基于粒子蒙特卡罗方法的概率推理在大语言模型推理时缩放中的应用)

[04:47] ? Jailbreaking with Universal Multi-Prompts(基于通用多提示的越狱技术)

[05:25] ? LayerTracer: Cognitive-Aligned Layered SVG Synthesis via Diffusion Transformer(LayerTracer:基于扩散变换器的认知对齐分层SVG合成)

[06:27] ? Token Assorted: Mixing Latent and Text Tokens for Improved Language Model Reasoning(令牌混合:通过混合潜在与文本令牌提升语言模型推理能力)

[07:09] ? On Teacher Hacking in Language Model Distillation(语言模型蒸馏中的教师模型攻击现象研究)

【关注我们】

您还可以在以下平台找到我们,获得播客内容以外更多信息

小红书: AI速递

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

语言模型 多模态推理 金融模拟 AI安全 图像合成
相关文章