原创 小茸茸 2024-11-05 09:29 重庆
Anthropic 发布 Claude 3.5 Haiku:价格与能力双提升;OpenAI 推出 Predicted Outputs:降低延迟提升速度;清华 MotionCLR:AI 动作编辑模型;ComfyUI v0.2.7 发布
Anthropic 发布 Claude 3.5 Haiku:价格与能力双提升
Claude 3.5 Haiku[1] 现已发布,主要改进如下:
在编程和代理任务上超越所有以前的 Claude 模型(除了新的 3.5 Sonnet)
速度提升,长上下文处理能力增强,并新增 prompt 缓存功能
知识库更新至 2024 年 7 月
然而,3.5 不再支持图像输入,有需要的用户还得继续使用 3。此外,3.5 Haiku 的价格也有所上涨,每百万 token 输入 1 美元,输出 5 美元,比起 3 来说贵了不少。
OpenAI 推出 Predicted Outputs:降低延迟提升速度
Predicted Outputs[2] 是 OpenAI 最新推出的功能,旨在提升 GPT-4o 和 GPT-4o-mini 的效率。
你可以在使用 GPT-4o/GPT-4o-mini 时,提供一段预测文本(即预计模型大部分会重复输出的内容,例如编程任务中的函数重构),最终能够使其快 2-4 倍。
关于价格,文档说的比较模糊,佬们可以自己看看,我任务是除了原本的计费外,与提供的预测不相同的部分也会计费,这意味着更快了,但是更贵了,希望能打脸。
清华 MotionCLR:AI 动作编辑模型
MotionCLR[3] 是一款能够理解和编辑人类动作的模型。
通过提示词,用户可以生成运动姿势动画,支持动作替换、动作强调、动作擦除和动作风格转移等功能。你们可以在线试用[4]下,我觉得还是非常自然的,可以用于游戏、动画、VR 等。
代码是开源的,但基于 IDEA License 1.0,默认不允许商用。
ComfyUI v0.2.7 发布:新增 Mochi 视频模型支持
ComfyUI[5] 现已发布 v0.2.7 版本,主要新增了对 Mochi[6] 视频模型的内置支持,包括 bf16 和适合低 VRAM 用户的 fp8 模型。
此外,还有一个第三方的 MochiEdit[7] 自定义节点,可以用来编辑视频,作者表示很快会适配原生 Mochi。
❝如果你喜欢《一觉醒来 AI 界发生了什么》系列的话,请 关注、点赞、在看、收藏、分享 五连警告,这对我真的很重要!
Reference
[1]
Claude 3.5 Haiku 官方介绍: https://www.anthropic.com/claude/haiku
[2]Predicted Outputs:https://platform.openai.com/docs/guides/latency-optimization#use-predicted-outputs: https://platform.openai.com/docs/guides/latency-optimization#use-predicted-outputs
[3]MotionCLR 模型官网: https://lhchen.top/MotionCLR/
[4]在线试用 MotionCLR: https://huggingface.co/spaces/EvanTHU/MotionCLR
[5]ComfyUI v0.2.7 版本发布: https://github.com/comfyanonymous/ComfyUI/releases/tag/v0.2.7
[6]Mochi 视频模型: https://huggingface.co/genmo/mochi-1-preview
[7]MochiEdit 自定义节点: https://github.com/logtd/ComfyUI-MochiEdit