热点
"指令微调" 相关文章
NVIDIA A Releases Introduce UltraLong-8B: A Series of Ultra-Long Context Language Models Designed to Process Extensive Sequences of Text (up to 1M, 2M, and 4M tokens)
MarkTechPost@AI 2025-04-13T04:10:29.000000Z
LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%
智源社区 2025-02-26T01:07:17.000000Z
LeCun力荐,进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%
36kr 2025-02-25T04:18:34.000000Z
明日直播|隐藏的说服者,如何让大模型更中立,18种大语言模型的研究偏好
智源社区 2024-12-17T15:20:49.000000Z
代码模型自我进化超越GPT-4o蒸馏!UIUC伯克利等提出自对齐方法 | NIPS 2024
智源社区 2024-11-29T15:22:17.000000Z
如何使用大模型进行数据分类分级
CISO洞察 2024-11-27T06:52:16.000000Z
Meet OpenCoder: A Completely Open-Source Code LLM Built on the Transparent Data Process Pipeline and Reproducible Dataset
MarkTechPost@AI 2024-11-15T08:03:41.000000Z
LLM Research Insights: Instruction Masking and New LoRA Finetuning Experiments
Ahead of AI 2024-10-22T06:07:40.000000Z
Instruction Pretraining LLMs
Ahead of AI 2024-10-22T06:07:39.000000Z
研究人员揭示大模型指令微调“新秘密”,助力大模型的高效、低成本定制
MIT 科技评论 - 本周热榜 2024-10-06T16:02:04.000000Z
Comprehensive Evaluation of Quantized Instruction-Tuned LLMs: Exploring Quantization Methods for Models Ranging from 7B to 405B Parameters
MarkTechPost@AI 2024-09-21T05:35:33.000000Z
覆盖 7 百万问答数据,上海 AI Lab 发布 ChemLLM,专业能力比肩 GPT-4
36kr 2024-09-04T07:48:33.000000Z
社区供稿 | 智源千万级指令微调数据集 Infinity-Instruct 持续迭代,Llama3.1 仅微调可接近 GPT-4
智源社区 2024-08-20T03:22:28.000000Z
打脸“AI灭绝伦”,研究反驳:大模型涌现能力不会威胁人类生存
虎嗅 2024-08-19T02:37:27.000000Z
打脸“AI灭绝伦”,研究反驳:大模型涌现能力不会威胁人类生存
36kr-科技 2024-08-19T01:51:37.000000Z
零样本即可时空预测!港大、华南理工等发布时空大模型UrbanGPT | KDD 2024
智源社区 2024-08-01T08:07:00.000000Z
RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架
智源社区 2024-07-10T06:05:55.000000Z
NVIDIA Introduces RankRAG: A Novel RAG Framework that Instruction-Tunes a Single LLM for the Dual Purposes of Top-k Context Ranking and Answer Generation in RAG
MarkTechPost@AI 2024-07-09T16:16:28.000000Z
LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V
36kr 2024-06-27T12:03:50.000000Z
Mistral AI Team Releases The Mistral-7B-Instruct-v0.3: An Instruct Fine-Tuned Version of the Mistral-7B-v0.3
MarkTechPost@AI 2024-05-23T06:00:58.000000Z