Meta开源SAM-2,可商用且能分割视频、图像,还发布了AI·Studio,让用户零编程创建。
🥳Meta开源的SAM-2是在原SAM基础上的更新,对架构、功能及准确率进行了大量改进。它能够依据交互和自动化两种方式,任意切割视频、图像中的所有元素,且支持Apache 2.0规则的商业化应用。
🤖Meta发布的AI·Studio使用户可以零编程创建,为用户提供了极大的便利,降低了使用门槛,使更多人能够参与到相关创作中。
🌟继上周开源Llama 3.1后,Meta再次开源重磅模型SAM-2,这显示了Meta在人工智能领域的积极探索和贡献,推动了行业的发展。
1.#Meta开源SAM-2:可商用;随意分割视频、图像。2023年4月5日,Meta首次开源了视觉分割模型SAM,能够根据交互和自动化两种方式任意切割视频、图像中的所有元素,当时这个模型被誉为计算机视觉界的“ChatGPT时刻”。今天凌晨,Meta在SAM的基础之上对架构、功能以及准确率等进行大量更新,正式开源了SAM-2,并支持Apache 2.0规则的商业化。这也是继上周Llama 3.1之后,再次开源重磅模型。(AIGC开放社区) 2.#Meta发布AI·Studio:让用户零编程创建、