热点
关于我们
xx
xx
"
指令微调
" 相关文章
只需一次指令微调,大模型变身全能专家天团,8B模型性能反超全微调基线 | ACL25 Oral
智源社区
2025-07-29T15:19:14.000000Z
Mind the Gap: Conformative Decoding to Improve Output Diversity of Instruction-Tuned Large Language Models
cs.AI updates on arXiv.org
2025-07-29T04:22:33.000000Z
SFT-指令微调是什么?SFT的流程是怎样的?
掘金 人工智能
2025-07-17T07:50:58.000000Z
大模型炼丹术(八):手把手教你玩转 LLM 的指令微调
掘金 人工智能
2025-07-14T08:18:56.000000Z
On the Effect of Instruction Tuning Loss on Generalization
cs.AI updates on arXiv.org
2025-07-11T04:04:16.000000Z
TACOS: Open Tagging and Comparative Scoring for Instruction Fine-Tuning Data Selection
cs.AI updates on arXiv.org
2025-07-08T06:58:12.000000Z
《ChatGLM/Llama调优实战:从指令微调到RLHF的工业级对齐方案》
掘金 人工智能
2025-07-05T03:16:21.000000Z
大模型微调:概念、技术与实践指南
掘金 人工智能
2025-07-03T03:33:19.000000Z
ACL 2025 | 数据多不如风格齐?SCAR精选<1%样本,指令微调效果飙升
PaperWeekly
2025-06-17T09:22:41.000000Z
AI 大语言模型的达尔文进化论:从"狗屁不通"到帮你写情书的AI秘史
掘金 人工智能
2025-05-28T02:18:13.000000Z
NVIDIA A Releases Introduce UltraLong-8B: A Series of Ultra-Long Context Language Models Designed to Process Extensive Sequences of Text (up to 1M, 2M, and 4M tokens)
MarkTechPost@AI
2025-04-13T04:10:29.000000Z
LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%
智源社区
2025-02-26T01:07:17.000000Z
LeCun力荐,进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%
36kr
2025-02-25T04:18:34.000000Z
明日直播|隐藏的说服者,如何让大模型更中立,18种大语言模型的研究偏好
智源社区
2024-12-17T15:20:49.000000Z
代码模型自我进化超越GPT-4o蒸馏!UIUC伯克利等提出自对齐方法 | NIPS 2024
智源社区
2024-11-29T15:22:17.000000Z
如何使用大模型进行数据分类分级
CISO洞察
2024-11-27T06:52:16.000000Z
Meet OpenCoder: A Completely Open-Source Code LLM Built on the Transparent Data Process Pipeline and Reproducible Dataset
MarkTechPost@AI
2024-11-15T08:03:41.000000Z
LLM Research Insights: Instruction Masking and New LoRA Finetuning Experiments
Ahead of AI
2024-10-22T06:07:40.000000Z
Instruction Pretraining LLMs
Ahead of AI
2024-10-22T06:07:39.000000Z
研究人员揭示大模型指令微调“新秘密”,助力大模型的高效、低成本定制
MIT 科技评论 - 本周热榜
2024-10-06T16:02:04.000000Z