ShowMeAI 2024年07月24日
价格屠夫DeepSeek!开卷本地私有化部署;海辛大佬亲自教你用ComfyUI;精彩的深度学习历史回顾 | ShowMeAI日报
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek 开源了其代码/数学能力媲美 GPT-4-Turbo 的大模型 DeepSeek-Coder-V2,包含 236B 和 16B 两种参数规模,并提供本地私有化部署服务,售价仅 45 万/年,包含一台推理训练一体化的高性能服务器。此外,上海交大 LLM 课程完结,海辛 Hyacinth 发布 ComfyUI 基础教程,Devv 创始人分享打造 AI 搜索引擎经验,GenAI 设计模式全面指南以及一份深度学习历史回顾,这些内容都值得关注。

🤩 DeepSeek 开源了其代码/数学能力媲美 GPT-4-Turbo 的大模型 DeepSeek-Coder-V2,包含 236B 和 16B 两种参数规模,API 支持 32K 上下文。官方表示,这是「全球首个在代码/数学能力上与 GPT-4-Turbo 争锋的模型」,在代码、数学的多个榜单上位居全球第二,介于最强闭源模型 GPT-4o 和 GPT-4-Turbo 之间。DeepSeek-Coder-V2 的价格依旧是非常低,而且官方宣布「本地私有化部署」服务售价仅仅 45 万/套/年,还包含了一台推理训练一体化的高性能服务器 (Nvidia H20、Huawei 910B 或其它同级别显卡,8 显卡互联)。这意味着什么呢?意味着连友商报价的零头都没有...

🎓 上海交大春季学期开设的《大语言模型》课程 (代码 CS2916),上周刚刚完结。这门课程定位与斯坦福大学 CS324「large language models」和 卡耐基梅隆 11-667「Large Language Models Methods and Applications」相似,聚焦于 LLM 领域的前沿技术发展,并且系统性地讲解 LLM 涉及到的基础知识体系。课程讲师团队非常豪华!主讲老师 刘鹏飞 是上交清源研究院的副教授,同时也是生成式人工智能研究组负责人,非常之🐂🍺。而且,它还邀请了几位知名学者,讲授相关章节。课程官网有大纲 & 每章课件/阅读资料,感兴趣可以前往获取啦~

🎬 海辛 Hyacinth 最近正在 B 站陆续更新自己录制的 ComfyUI 基础课。截至 6 月 16 日,更新了 7 个视频,每个视频 10 分钟左右。课程品质非常好,兼顾了基础和实战。她从最基础的安装讲起,细节非常丰富,但实战感觉又很强,一点不拖沓,新手跟着学可以快速掌握最必要的操作技巧。

💻 Devv.ai  是一款专为程序员设计的新一代 AI 搜索引擎,旨在替代开发者日常使用的 Google、StackOverflow 和文档查询场景,助开发者快速定位精确的代码片段和解决方案,提升编程效率。Devv 创始人 @jiayuan 在开篇就提到「Solving a Real Problem」,也就是从解决一个真正的问题开始。为了确保观察到一个真正的问题,jiayuan 在项目开始之前跟 50 位不同背景的开发者进行了一对一的访谈,了解他们当前的痛点和解决方案,并最终达成共识:做一款专注于开发者的、可靠的搜索引擎。

🧠 本文还介绍了 GenAI 设计模式全面指南,该指南介绍了使用 LLM 时可参考的架构模式和心智模型,帮助你减轻和克服 GenAI 实现过程中的挑战,比如成本、延迟和幻觉等等。作者 Vincent Koc 也说到,这是他暂时经验的总结,而行业和技术的发展变动是迅速且剧烈的。

📚 本文最后还分享了一份精彩的「深度学习 (DeepLearning) 历史回顾」,从前馈神经网络到 GPT-4o,深度学习逐步创建了一套日益智能的系统。作者对这段历史进行了研究,但并不是按照时间线,也没有讲技术细节,而是总结成一个思考框架:深度学习的约束条件,由数据、参数、优化与正则化、架构、计算、计算效率、能源 7 个部分组成。而深度学习领域的发展史,就是对这 7 个约束条件的突破史。

原创 日报组 2024-06-19 23:59 北京

日报关键词:?DeepSeek开卷本地私有化部署;?上海交大 LLM 课程完结;?海辛录制的ComfyUI基础视频教程;?Devv AI搜索引擎创始人复盘;GenAI设计模式全面指南;?深度学习历史回顾… 点击阅读全文

ShowMeAI

专业◎洞察◎清晰◎实用

用知识加速每一次技术进步!

推荐语

嗷!来不及写了!


价格屠夫又来了!开卷「本地私有化部署」服务价格,顺手上线和开源 DeepSeek-Coder-V2

6月17日晚,DeepSeek「深度求索」公众号发文,宣布上线和开源 DeepSeek-Coder-V2 大模型,包含 236B 和 16B 两种参数规模,API 支持 32K 上下文。

官方表示,这是「全球首个在代码/数学能力上与 GPT-4-Turbo 争锋的模型」,在代码、数学的多个榜单上位居全球第二,介于最强闭源模型 GPT-4o 和 GPT-4-Turbo 之间 ???


DeepSeek-Coder-V2 的价格依旧是非常低低低!而且官方宣布「本地私有化部署」服务售价仅仅 45 万/套/年,还包含了一台推理训练一体化的高性能服务器 (Nvidia H20、Huawei 910B 或其它同级别显卡,8 显卡互联) ? 服务细则如上图左侧所示。

这意味着什么呢?意味着连友商报价的零头都没有… (上图右侧是智谱 ChatGLM 的本地私有化报价)。

⋙ DeepSeek 官方发文有更多详情

智谱AI产品定价 → https://open.bigmodel.cn/pricing


如果你想体验 DeepSeek-Coder-V2 的代码能力,可以登录 **DeepSeek Chat 在线网站 (网站和 API 都是 236B 版本的模型)**,选择左侧「代码助手」。

我自己测了几个例子,的确体验非常丝滑,回答也很友好~

DeepSeek Chat 在线网站 → https://chat.deepseek.com/coder

 

社群津津乐道的另一个话题,就是 DeepSeek 这个神秘团队,以及背后更神秘的 幻方。一家做量化金融的公司坚信 AGI,真的有点魔幻 ?

⋙ 是时候重读一年前 @36氪 对创始人梁文锋的专访了

一年时间过去了,这个「旁门左道」的江湖怪侠,频频出招,搅弄风云,已经有成为一代大侠的气质 ⚔ 意料之外又觉得非常合理

蛮好的!中国有自己的「OpenAI」

上海交大「CS2916 大语言模型」课程完结!国内高校首门 LLM 技术前沿课,全明星讲师团队

上海交大春季学期开设的《大语言模型》课程 (代码 CS2916),上周刚刚完结???

这门课程定位与斯坦福大学 CS324「large language models卡耐基梅隆 11-667「Large Language Models Methods and Applications」相似,聚焦于 LLM 领域的前沿技术发展,并且系统性地讲解 LLM 涉及到的基础知识体系。

课程大纲

    为什么是大语言模型 (LLMs)?

    神经网络和深度学习基础

    语言模型与表示学习

    Transformers 和预训练语言模型

    提示工程 (Prompting Engineering)

    评估 (Evaluation)

    大语言模型的并行训练

    指令调整与对齐 (Instruction Tuning and Alignment)

    奖励模型与强化学习人类偏好反馈 (RLHF)

    代理 (Agent)

    多模态 (Multimodal)

    长上下文大语言模型 (Long-context LLM)

    多模态大语言模型 (Multi-modal LLM)


非常值得一提的是,课程讲师团队非常豪华

主讲老师 刘鹏飞 是上交清源研究院的副教授,同时也是生成式人工智能研究组负责人,非常之?? 而且,它还邀请了几位知名学者,讲授相关章节 (的确是国际一流AI课程的水准和风格):


课程官网有大纲 & 每章课件/阅读资料,感兴趣可以前往获取啦~

课程课件在努力保持专业度的基础上,加了中文解释,这点对中文学习者非常友好!!推荐的阅读资料非常精准完备,也赞一个 ? 

不过,暂时没在公共平台找到课程视频,有点点遗憾 ?

上海交大 · CS2916 大语言模型 课程官网→ https://gair-nlp.github.io/cs2916/docs/intro

斯坦福 CS324 → https://stanford-cs324.github.io/winter2023/

卡耐基梅隆 11-667 → https://cmu-llms.org

海辛Hyacinth 大佬录制的 ComfyUI 基础教程 (系列更新中),讲得非常好!

ComfyUI 专为 Stable Diffusion 设计,将图像生成过程分解为多个独立的节点。每个节点都有特定的功能,形成一个完整的工作流。用户可以灵活地调整和配置不同的功能节点,实现对模型的精准控制和高度定制化

海辛Hyacinth 就不用多介绍啦~ 集美丽和才华于一身的AI视频创作者,影视创作和知识分享非常活跃 & 参与了龙年央视春晚的节目制作 ?


海辛Hyacinth 最近正在 B 站陆续更新自己录制的 ComfyUI 基础课 ? 点击学习 截至6月16日,更新了7个视频,每个视频 10 分钟左右。


课程品质非常好,兼顾了基础和实战 ? 她从最基础的安装讲起,细节非常丰富,但实战感觉又很强,一点不拖沓,新手跟着学可以快速掌握最必要的操作技巧~

课程大纲

    ComfyUI 安装与部署:从 GitHub 页面开始讲起,详细演示如何下载、安装和配置ComfyUI

    ComfyUI 界面介绍:各个界面元素的作用,以及最重要、最基本的操作 (节点、工作流等)

    ComfyUI 文生图、图生图:文本生成图像、图像生成图像的详细步骤,演示整个操作流程 & 注意事项

    ComfyUI ControlNet 使用:在 ComfyUI 中使用 ControlNet 来增强图像生成的完整操作流程

    ComfyUI Upscale:在ComfyUI 中进行图像放大的4种主流方式,图像放大、潜空间放大、插件UltimateSDUpscale、开源Supir (目前效果最好)

    ComfyUI InstantID:使用开源社区技术 Instant ID来进行角色换脸的完整操作,也就是仅输入一张参考图片,InstantID 就可以生成基于该角色的其他风格的图片

    IPAdapter  (旧版) :使用 IPAdapter 进行迁移学习的完整操作,也就是输入一张图像后,生成图像时可以学习到这张参考图像的风格特征

B站课程网址 → https://www.bilibili.com/video/BV1rJ4m1M7jk

看视频时,偶尔能听到 海辛Hyacinth 打哈欠的声音?辛苦了!大家也记得关注和三连 ⭐

Devv 创始人分享,如何打造一个月入3万美元的AI搜索引擎

? 这期日报 分享了YC 创始人 Paul Graham 的一篇经典长文「How to Get Startup Ideas」,日报详细整理了文章说到的十几种「创业 idea 来源方式」。

社区伙伴们反馈很活跃呀 ? 看来大家的确需要这种比较高屋建瓴的、系统的分享&指导。

想起来 Devv 创始人 @jiayuan 曾经分享过他这次创业的心得,与 Paul Graham 长文提到的创业技巧完美呼应!我们一起康康叭 ?


Devv.ai  是一款专为程序员设计的新一代 AI 搜索引擎,旨在替代开发者日常使用的 Google、StackOverflow 和文档查询场景,助开发者快速定位精确的代码片段和解决方案,提升编程效率。

官网 (需要魔法) → https://devv.ai


jiayuan 在开篇就提到「Solving a Real Problem」,也就是从解决一个真正的问题开始。这跟 Paul Graham 分享的第一条完全一致。

为了确保观察到一个真正的问题,jiayuan 在项目开始之前跟 50 位不同背景的开发者进行了一对一的访谈,了解他们当前的痛点和解决方案,并最终达成共识:做一款专注于开发者的、可靠的搜索引擎


他还在文中分享了几个关键节点,比如一周内 MVP 快速上线验证需求、确定差异化方向、大模型没备案导致中国市场被封禁(数据下跌严重)、出海、商业化…

而且,他还在社交平台 (推特 X 和即刻) 上非常活跃,积极分享产品使用技巧、技术路径、重大的产品更新!做得非常好 ?


我们整理下他在分享最终提到的几条 产品构建经验 & 创业经验,感兴趣可以阅读原文哦!

产品构建经验

    解决一个真正的、切身的问题。成功的创业公司往往能够解决用户的实际需求。

    通过MVP快速验证。避免一开始就追求完美,应该推出基础版产品进行快速验证。

    让你的产品与众不同。在市场竞争激烈时,通过独特功能和专注目标用户群体,使产品独具一格。

    口碑的力量。优秀的产品会自然引发用户间的推荐,尤其在开发者这样的紧密社群中更为显著。

    面对挑战是必经之路。创业之路充满挑战,关键在于保持适应性和持续进步。

    归根到底,Devv 的成功归功于对初步见解的坚持:开发者需要一个更优秀、更可靠的AI搜索工具,然后团队始终专注于解决这个核心问题并不断完善产品

创业经验

 

创始人分享的原文 (英文) → https://www.indiehackers.com/post/how-we-built-an-ai-search-engine-for-devs-that-makes-30k-mo-SlB19aYcVZ8pGu3hNwhg

⋙ 中文翻译版本

⋙ 收录了 Paul Graham 长文整理的日报 

Reddit 正文被 removed 但评论区挺精彩 → https://www.reddit.com/r/SideProject/comments/1bp4d43/how_we_built_an_ai_search_engine_for_devs_got

开发者推特 → https://twitter.com/forrestzh_?s=09

GenAI 设计模式全面指南:使用 LLM 时可参考的架构模式和心智模型

上面说到了如何获取创业/产品 idea,接下来就看看 GenAI 产品有哪些被验证的、可以依赖的设计模式,帮助你减轻和克服 GenAI 实现过程中的挑战,比如成本、延迟和幻觉等等


当然,作者 Vincent Koc 也说到,这是他暂时经验的总结,而行业和技术的发展变动是迅速且剧烈的。

    使用分层缓存策略驱动微调 (Layered Caching Strategy Leading To Fine-Tuning)

    多路复用AI智能体,用于专家模型组合 (Multiplexing AI Agents For A Panel Of Experts)

    微调LLM的多任务优化 (Fine-Tuning LLM’s For Multiple Tasks)

    基于规则和生成的混合规则 (Blending Rules Based & Generative)

    利用LLM的知识图谱 (Utilizing Knowledge Graphs with LLM's)

    GenAI之智能体的群体 (Swarm Of Generative AI Agents)

    模块化单体LLM方法与可组合性 (Modular Monolith LLM Approach With Composability)

    LLM的记忆认知方法 (Approach To Memory Cognition For LLM's)

    红蓝队双模型评估 (Red & Blue Team Dual-Model Evaluation)


作者不仅详细解释了每种模式的含义,还给出了架构图,以及可以参考的实现思路 & 可用的工具资源。

1. 使用分层缓存策略驱动微调

2. 多路复用AI智能体,用于专家小组

3. 为多个任务进行LLM的微调

4. 基于混合规则和生成

5. 结合知识图谱使用LLM

6. AI代理群

7. 具有可组合性的模块化单体LLM方法(Moe)

8. LLM的记忆认知方法

9. 红蓝队双模型评估

原文链接 → https://towardsdatascience.com/generative-ai-design-patterns-a-comprehensive-guide-41425a40d7d0

中文翻译版本 (翻得不错) → https://luxiangdong.com/2024/02/26/genaidm

哇!一份精彩的「深度学习 (DeepLearning) 历史回顾」:积硅步,至千里

康康我们又发现了什么好东西!

这是一份非常有意思的深度学习历史研究

从前馈神经网络到 GPT-4o,深度学习逐步创建了一套日益智能的系统。作者对这段历史进行了研究,但并不是按照时间线,也没有讲技术细节,而是总结成一个思考框架:

深度学习的约束条件,由数据、参数、优化与正则化、架构、计算、计算效率、能源 7 个部分组成。而深度学习领域的发展史,就是对这7个约束条件的突破史。


以下是更详细的内容大纲。

作者有非常多有趣和深刻的洞察,帮助我们在技术之外,看到深度学习领域发展的一条条明线和暗线。还没发现有中文翻译版本,感兴趣可以前往阅读原文:

 

1. 约束 (Constraints)

1.1. 数据 (Data)

    良好的近似 (A Good Approximation)

    突破 #1: 大型标注数据集 (Breakthrough #1: Large Labeled Datasets)

    突破 #2: 解锁互联网 (Breakthrough #2: Unlocking the Internet)

    突破 #3: 训练助手 (Breakthrough #3: Training Assistants)

    互联网数据之外 (Beyond Internet Data)

    建模数据 (Modeling Data)

1.2. 参数 (Parameters)

    突破 #1: 增加深度 (Breakthrough #1: Increasing Depth)

    突破 #2: 规模定律 (Scaling Laws)

1.3. 优化与正则化 (Optimization & Regularization)

    突破 #1: 驯服梯度 (Taming Gradients)

    突破 #2: 网络之网络 (Network of Networks)

    突破 #3: 驯服激活 (Taming Activations)

    突破 #4: 动量 (Momentum)

    被遗忘的约束 (The Forgotten Constraint)

1.4. 架构 (Architecture)

    突破 #1: 学习特征 (Learning Features)

    突破 #2: 记忆 (Memory)

    突破 #3: 注意力机制 (Attention)

    突破 #4: 利用随机性 (Harnessing Randomness)

    突破 #5: 嵌入 (Embeddings)

    "不要触碰架构" ("Don't Touch the Architecture")

1.5. 计算 (Compute)

    突破 #1: 计算通信 (Communicating Compute)

    突破 #2: 乘势而上 (Riding Tailwinds)

    突破 #3: 人工智能优先 (AI Gets Prioritized)

    突破 #4: 计算竞赛 (The Compute Arms Race)

    调整供应链 (Adjusting Supply Chains)

    人工智能专用芯片 (AI ASICs)

1.6. 计算效率 (Compute Efficiency)

    突破 #1: CUDA

    突破 #2: 核心库 (Kernel Libraries)

    持续改进 (Continuous Improvement)

1.7. 能源 (Energy)

1.8. 约束与杠杆 (Constraints & Leverage)

 

2. 叙事 (Narratives)

    叙事 #1: 深度学习有效 (Deep Learning Works)

    叙事 #2: 互联网规模数据 (Internet Scale Data)

    叙事 #3: 规模定律 (Scaling Laws)

3. 灵感 (Inspiration)

    神经科学 (Neuroscience)

    线性代数与微积分 (Linear Algebra & Calculus)

    物理与信息论 (Physics & Information Theory)

    工程学 (Engineering)

4. 智能 (Intelligence)

5. 未来 (Future)


此外,作者还整理了自己整个过程中阅读的高质量资料、关键论文、学习笔记、对重要概念的解释,以及在相关情况下的 PyTorch 的简单实现。可以说是一份「Deep Learning」的学习大宝库!

GitHub 项目链接 (记得 Star ⭐) → https://github.com/adam-maj/deep-learning

     THE   END     

转载原创文章请添加微信 AhaNanQiao

↓ 分享·收藏·在看·点赞

阅读原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek LLM 开源 本地部署 ComfyUI Devv GenAI 深度学习
相关文章