第一财经杂志 04月08日 16:33
对话昆仑万维方汉:大厂可以技术优先,但中厂要商业模式优先
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

昆仑万维作为一家互联网中厂,在AI浪潮中选择AIGC作为切入点,专注于音乐生成模型Mureka,并探索短剧等细分领域。文章探讨了中厂在巨头与初创公司夹击下的生存之道,强调商业可行性与既有业务协同。通过技术创新、全球化运营和开放合作,昆仑万维旨在AIGC领域占据一席之地,最终实现商业突破。

🎶昆仑万维选择AIGC赛道,并专注于音乐生成模型,认为AIGC是中厂的现实机遇,而视频生成是皇冠上的明珠,但不会是其首选。

🎤Mureka音乐生成模型旨在降低音乐创作门槛,面向C端用户提供作曲作词工具,B端客户则可用于降低音乐成本和提高制作效率,支持多语言和API微调。

🌍昆仑万维通过技术优势和全球化运营,计划占领DAW工具市场,并积极探索与Starmaker等现有业务的协同,同时对标字节跳动,强调开放合作。

🎬昆仑万维发布AI短剧模型,旨在提升短剧产量和质量,并选择开源策略,以满足用户长尾需求,构建生态,从而反哺本源模型,实现商业增长。

Key Points

AGI是大厂的梦想,AIGC才是中厂的现实;

AIGC皇冠上的明珠一定是视频生成,但它不会是我的机会;

宁为鸡口,无为牛后:我们有音乐数据和短剧经验,就先卡音乐和短剧的点;

字节做剪映更多是服务抖音,他们对第三方客户的响应不会有我们那么及时;

你看着好像我们运气挺好,每次都转成功,其实是我们转得不成功的时候你没看到。

 

这一拨AI浪潮的竞争叙事中,互联网中厂似乎从大众视野中隐身了,人们的注意力几乎全部集中在技术巨头与创业公司上。前者有资金、人才,以及垄断性的产品与场景,阿里巴巴、字节、腾讯都属于这个阵营,它们的优势不言自明;而后者就是指挑战巨头的创业公司,AI六小虎、DeepSeek、Manus自然属于这一头,它们通过包容创新的环境、灵活迭代的机制寻找弯道超车的机会。

然而事实上,在前几轮互联网行业的残酷搏杀中留下的「中厂」们也自有其生存之道,虽然不如巨头资源多,不如初创公司身段灵活,但这也让它们落地AI时更注重商业上可行性,以及与既有业务的协同作用。

美图秀秀就是其中的模范生。阿里巴巴的妙鸭相机一度红遍网络,但真正将AI修图做成生意的却是美图。2023年和2024年,这家公司收入同比增长了29.3%和23.9%,净利润同比增长233%和59.2%,背后依靠的就是AI功能大幅促进了用户订阅付费的意愿。

昆仑万维也是这样一家中厂。这家公司经历过多次转型,2008年成立时的主营业务还是游戏,2015年上市后开始转型做出海互联网平台。它也是最早跟进此次AI浪潮的公司之一。早在2023年4月,它就发布了自研大语言模型「天工大模型」,并在8月发布了国内首个AI搜索产品「天工AI」。如今这家公司的最新使命已经变成了「实现通用人工智能,让每个人更好地塑造和表达自我」。

不过「前半句是梦想,后半句是生意」,昆仑万维董事长兼总经理方汉在接受「新皮层」采访时说。在他看来,语言模型是通向AGI的大道,但这是一条拥挤的道路。对中厂来说,与其「在大的赛道上跟大厂挤……最后完蛋」,不如在「熟悉的赛道上做到底」。

对昆仑万维来说,这条「熟悉的赛道」就是AIGC,更具体来说,是用音乐生成模型创造内容。选择音乐生成模型,也是方汉和他的团队反复思考的结果——AIGC类模型中最重要的一定是视频生成模型,这自然也是「拥挤的赛道」,而「视频生成不是一个孤立的产品,它还需要音乐、音效这些东西来配合」。

昆仑万维董事长兼总经理方汉。

3月26日,随着昆仑万维正式发布两款最新音乐模型Mureka V6与O1,方汉接受了「新皮层」的采访,其间他聊到了作为一家互联网中厂,昆仑万维在AI浪潮中关于寻找商机、建立壁垒的思考。

 

大厂的音乐模型只服务它们的自有产品,B端是我们的市场

新皮层:为何要做Mureka这款产品,目标用户是谁?

方汉:首先,所有的AIGC生成模型本质上都是在降低用户创作内容的门槛和成本。举个例子,在音乐生成模型出现之前,想作曲你必须得上音乐学院接受专业训练,作词可能还好一点。而且原来制作一首曲子的平均成本,从作词作曲到乐队演奏再到混音,算下最低也得几万元。这两点就导致了整个行业的从业者没有那么多,有很多音乐爱好者其实没有办法介入这个领域。所以从C端看,我们的用户就是喜欢音乐的普通人。现在我们给他们赋能之后,他们就可以随心所欲地去作曲作词。

B端那就更简单了,B端客户更关注成本,比如你在餐厅里放歌严格来说都是要付钱的。尤其是影视、游戏领域的客户,他们每年为音乐音频支出的成本都很高。但现在音乐生成模型可以将一首曲子几万元的成本降低到几块钱、几毛钱。不仅如此,原来做一首曲子,从立项到最后交付至少要半个月时间,现在几分钟就全完成了,响应速度特别快。如果你没有那种最极致的音乐需求,只是普通需求的话,它(指音乐生成模型)将很快满足。

新皮层:除了生成音乐,现在的Mureka还有哪些功能?

方汉:我们开放了一个Mureka的微调API,用户可以上传自己的专有音源,我们的微调服务就可以生成相似风格的音乐。比如,冬不拉是一种很小众的乐器,相关音源不多,用户可以将自己演奏的冬不拉做成示例音乐来微调模型,接下来就可以生成非常好听的冬不拉音乐。对于满足少数民族的这种个性化的长尾需求,这种微调API是非常重要的。

为了满足专业用户我们还能生成多音轨。其实我们平时听到的流行歌曲在混音之前是有很多个音轨的。每个乐器有自己的轨,然后每个声部有自己的轨、人声有自己的轨、合唱有自己的轨,把这些合到一起才能成为一首完整歌曲。我们现在已经可以做到人声、伴奏的多轨输出,这对专业作者来说是一个非常重要的功能。

最后,我们在多语言方面做得非常好。我们现在支持10种语言,几乎已经涵盖了世界上90%的人群常用的语言。

新皮层:所以你们想做的是企业级的生产力工具?

方汉:我们平替的应该是数字音乐工作站Digital Audio Workstation。DAW这类工具原来都是很专业的人在用,现在我做了一个很平民化的工具。

新皮层:它的商业模式是怎样的?

方汉:我们的商业化还是向专业用户收费,就是那些对品质、对功能有要求的C端和B端用户。免费版类似语言大模型,可以随便使用。一旦要更高的速度、更优先的生成机会、更丰富的编辑功能,那你肯定要付费订阅,这已经是非常成熟的SaaS或者PaaS服务。

新皮层:这会是个多大的生意?

方汉:根据一些行业报告,目前整个DAW工具市场的全球规模大约是40亿美元。它的特点是用户群非常窄,也就是所有的音乐从业者,覆盖的人群大约有几百万。

我们目前的计划是要逐渐占领这个市场,当然,我们的新技术也会同时扩大这个市场的规模。假设原来全球只有200万人从事音乐行业,我们介入后,从业者规模就奔着2000万甚至2亿去了。那时这个市场很可能将成为一个100亿美元的市场。

如果我们最终占据10%的市场份额,那对昆仑万维就是一个4亿至10亿美元的生意,我觉得这个预测还是比较make sense的。

新皮层:你们只做工具,不介入发行?

方汉:对,Mureka本质上还是一个创作工具,而不是一个分发渠道。我们对所有的音乐平台持开放态度,谁来合作都可以。我们本身只是一个工具,因为渠道分发是一个很复杂的传统业务。当然我们肯定会建立创作者生态,同时想办法帮生态中的创作者去发行自己的产品。但这不意味着我们要做渠道,我们只是通过自己的力量去帮他们做商业化变现。

新皮层:你们如何与这个市场已有的对手竞争?

方汉:我们的AI技术还会保持一段时间的领先优势,这使得在全球化中,我们可以享受技术与产品红利。这个市场的用户的付费订阅习惯特别好,他们每年花很多钱去购买DAW工具,而且这些工具的收费都极其昂贵。当我们的产品规模化之后,我们就可以把成本打下来,做到薄利多销。

昆仑万维有全球化运营的经验,我们的业务覆盖100多个国家,在20多个国家有办公室。我们可以一个语言市场一个语言市场地做,一个国家一个国家地推广。这对我们来说是非常诱人的。

新皮层:如何看待与其他中国互联网巨头的潜在竞争?

方汉:首先我们跟这些大公司肯定有竞争关系,这是毫无疑问的。但我觉得大家做这件事的出发点不一样。大公司自己就是非常大的内容平台,它们做工具更多是为了自己的平台服务,就像字节做剪映更多是服务抖音。所以它们对于第三方客户的响应就没有我们那么及时。而我们对这类客户会更重视,我们已经有不少的B端客户,我门要帮它们做音轨和API微调。

其次,因为我们做全球化业务比较多,所以Mureka一推出就已经支持10种语言。而国内这些大厂对汉语以外的语言兴趣没有那么大,这也是双方的一个差异,所以我觉得有竞争,但不是很大。

最后,因为我们是中厂,所以我们更加开放,什么样的视频生成模型我们都会去适配,而大厂大概率会优先适配自己的产品,这是双方的不同。

新皮层:市场预期如何?

方汉:我觉得技术上现在已经非常成熟了,但还需要时间。历史来看,MP3最早是德国工程师在1991年写的一个算法,然后出现了Winamp这样的播放软件,硬件厂商基于这个技术推出MP3播放器。再之后苹果介入进来,现在Apple Music应该是全球最大的发行渠道之一,这个过程耗时将近20年。

我觉得3至5年内我们会看到AI生成的音乐进入有影响力的音乐排行榜,成为真正的金曲;在5到10年之间,我认为整个产业都会产生一个大的重组和重构,可能会有新的音乐平台出现。

新皮层:Mureka跟昆仑万维的其他业务有协同关系吗?

方汉:最大的肯定是Starmaker,它是一个K歌社交产品,现在平台上每天有将近600万人次的歌曲分享。一般而言,如果有1万个人听歌的话,大概就有100个人唱歌,还有1个人写歌;因为唱歌的人本身就是有表达欲和创作欲的,通过Mureka,我们未来很可能把这100个唱歌的人全部转化成写歌的人。

而且我们通过Starmaker这个平台在每个国家办「我是歌手」这样的线上比赛,但现在大部分用户还是唱现成的歌。以后就可以搞原创歌曲大赛,把我们的工具植入进去帮助创作。同时平台还可以把这些歌曲推送到这个国家每个听歌人、每个唱歌人的耳朵里。

其次我们还有个AI短剧业务。短剧业务中,除了影视音乐的生成,还有大量的音频生成需求,例如环境声、爆炸声、汽车刹车声。现在大都是先有视频然后再配乐。当然也可以先在裸视频上配乐,但难点就在于要在时间轴上把点卡准。这个就可以通过AI工具来实现,一口气连视频带配音全给你生成,而且保证卡点是准的。这就需要我们的音乐与视频模型做适配。

新皮层:去年开始上线音乐模型之后,商业上有什么成果可以分享?

方汉:现在有100多个国家的人群在使用我们的Mureka,我觉得普及度还是蛮高的。目前我们在国外的发展会更快一些,因为海外的音乐产业比较成熟,从低端到高端都有。去年有人用我们的产品生成的歌曲在印尼的流行音乐排行榜上进过前100名。

在国内主要还是跟大客户合作,比如中国联通、中国移动;此外我们还跟一些新能源汽车公司合作,它们希望座舱音乐是专门定制的。

 

「我们的模型能预测一个曲子有多大可能性在中国流行、多大可能性在美国流行」

新皮层:这次发布的新模型叫Mureka O1,名字有点像最近很火的推理模型,比如OpenAI o1、DeepSeek R1等,它跟之前的天工SkyMusic有什么关系?

方汉:最近我们统一了品牌,过去SkyMusic的命名方式被弃用了,现在只有Mureka这个名字,无论产品还是模型都叫Mureka。其中Mureka V6是我们传统模型方向的最高成就。但在这之后,我们引入了语言大模型的思维链技术CoT(Chain of Thought,通过技术将复杂问题分解为多步骤的子问题来训练模型,大幅提高模型的推理能力,是o1、R1模型诞生的关键),从而在V6的基础上大幅提高了生成效果,我们将其命名为Mureka O1。在第三方评测中,O1是真正全面超过Suno的产品。

新皮层:这个MusiCoT技术是怎么提升模型能力的?

方汉:大多数音乐模型包括Mureka V6都采用Diffusion Transformer(DiT)技术,这种模型生成的音乐几乎是一锤子买卖。于是在实际使用中,为了提高质量,大家只能一口气生成十几首曲子,再从中挑哪个好,有点像摸奖。

现在通过MusiCoT技术,我们把对结果的预测提前到生成前,也就是说,在音乐生成前模型就预测了整个音乐的结构,然后通过我们的评分模型来对生成结果打分。这让我们对音乐结构的预测更加准确,最终提升了音乐生成的质量。

新皮层:关键点在哪里?

方汉:关键在数据。这个训练数据就像DeepSeek训练R1时给的那批数据一样,数据不用太多,但一定要特别准确。

因为我们的音乐模型已经在线上跑了很久了,我们有大量的生成结果,以及用户对我们这个生成结果的打分。这个数据只有在线上大量地跑,跑几千万首歌才能跑出来。这几千万的数据还要筛选、清洗、标注。我们又花费了大量人力对线上取得的数据进行了强标注——从什么样的起始条件,到得到什么样的结果是好的。

于是我们就同时获得了生成音乐的起始条件(注:可以理解为一种音乐结构),和这些起始条件与最终生成结果的分数关系。将这些关系用于大模型的训练,最终模型就学习到哪种输出是好的。这个过程也是一个数据飞轮。

新皮层:你们做这件事有哪些优势?

方汉:首先,我们做得很早,Mureka(原天工SkyMusic)应该是国内第一个真正可用的音乐生成大模型。有很多用户曾使用我们的产品,为我们积累了大量的创作型数据。目前在国内,通过线上音乐模型积累数据最多的肯定是我们,在国外最多的肯定是Suno,这个其实也是一个长期的技术门槛。

其次,我们做Starmaker七八年,期间积累了大量音频处理技术,比如说人声分离技术。我们能把一首歌的人声从音轨里分离出来,然后得到一个纯净的母带。我们为此收集了全球各地非常多的公开版权音乐。当然音乐数据还是不够的,整个人类到现在为止总共只创作了4000万首左右的歌曲。同时,我们还积累了大量评价歌曲好坏、评价演奏好坏的经验。我们有自研的打分模型。你唱一首歌,我们可以明确告诉你,你的演唱是什么水平——国家级的还是村镇级别的。然后用户制作一首曲子出来,我也能预测这个曲子有多大可能性在中国流行、多大可行性在美国流行。

这样的话,我们就可以对原始数据做非常精确的筛选,得到一批最高质量的数据,而且是满足人类审美的数据,这才是我们在数据上最大的优势和护城河。

 

AGI是大厂的梦想,AIGC才是中厂的现实

新皮层:今年AI竞争比前两年更加激烈,很多巨头开始下场,你们如何看待?

方汉:DeepSeek出来之后,因为它把训练方法开源,导致所有训练语言大模型的人都觉得「我也行」,于是出现了这一轮热潮。但我们其实对这个事情的思考一直比较成熟,就是我们公司的使命叫「实现通用人工智能,让每个人更好地塑造和表达自我」。

前半句话指我们要头顶苍天,但是实际上通向AGI的路上何时可以商业化,目前大家都说不太好。比如现在部署DeepSeek模型的公司里,可能只有DeepSeek公司自己是赚钱的,其他很多公司都是在赔钱赚吆喝。而且在中国,让用户付费订阅这个成本模式显然不成立。这时候整个商业化就是一个巨大的问题。

后半句话就是脚踏实地,我们看到的机会在AIGC领域。因为我们认为所有的AIGC技术本质上就是降低每个人创作内容的门槛,它必然会导致创作者规模的持续扩大和创作内容数量的持续扩大。我们认为这对我们是一个最大的商机,而且它间接地实现了文化平权。

新皮层:未来昆仑万维还会继续投入语言类大模型吗?

方汉:我们会持续投入,只不过侧重点跟巨头不一样。我们一直在倒过来思考,用户需要什么样的通用大模型产品,当前产品的能力还有哪些欠缺?比如很多模型语音交互不够好,我们发布了多模态大模型Skywork 4o和实时语音对话助手Skyo,它的响应速度快,支持多语言,能够主动发起对话、实时打断。

新皮层:昆仑万维是国内最早做AI搜索的公司,这也是基于语言大模型吧,这个产品还会继续吗?

方汉:虽然我们是最早做的,但说实话这不是一个技术优先的赛道,而是一个用户使用习惯优先的赛道、一个商业模式优先的赛道。

其一,对于用户搜索来说,「百度一下」已经成为一个动词了,你跟动词去对抗是不太明智的。哪怕AI搜索的质量很好,但只有一些专业客户,像金融客户、科研客户对它的兴趣特别大。

其二,AI搜索最终的商业模式是订阅制,这在中国很难。你看哪家中国公司的AI搜索敢做付费订阅?就算有,成绩也不是很好。所以这个方向我们还是在尝试和摸索,比如我们觉得PPT有机会,就做过AIPPT,还是要寻找到一个切实可行的商业模式。

新皮层:所以商业模式能否落地是你们做AI产品时的优先目标?

方汉:我们作为一个中型的互联网厂商,不赚钱就活不下去,这是一个很实际的考虑。但我们仍然有一些梦想,就是通过产品创新、商业模式创新,有可能在一些细分赛道取得突破。昆仑万维从建立到现在为止,其实方向转了很多次。你看着好像我们运气挺好,每次都转成功。其实是我们转得不成功的你没看到。

对于我们中厂来说,要对终局进行反复思考。现在我们认为AIGC更容易赚钱,AGI是梦想,这个我们已经想的很清楚。

新皮层:AIGC领域那么多,为何选择音乐模型?

方汉:对于中厂来说,「宁为鸡口,无为牛后」。你在大的赛道上跟大厂挤赚不到钱,最后一定是会完蛋的。那么你一定要在一些熟悉的赛道上做到底,或者至少要做到跟大厂相对并驾齐驱,你才能获取相应的技术和产品红利。

在当前大背景下,一定要做SOTA(state-of-the-art model,指特定任务下当前表现目前最好、最先进的模型),没有SOTA你就拿不到技术和产品红利。有了SOTA,你不用做任何营销,产品红利也会迅速爆发。比如DeepSeek根本不做营销,爆红之后,它迅速地把全中国语言大模型第一的位置抢过去了。

AIGC领域皇冠上的明珠一定是视频生成。但视频生成不是一个孤立的产品,它还需要音乐、音效这些东西来配合。既然我们有音乐数据,我们就先卡音乐的位置,我们有短剧的经验和渠道,那我就再去卡短剧的这个位置。我们一直在不断地缩小我们卡位的点。

音乐生成是个比较窄的赛道,它不像语言大模型那么热,语言模型迭代速度会更快。而在这个过程中,我们可以不断借鉴语言模型,探索有多少技术方案、优化方案可以迁移过来。

新皮层:接下来音乐大模型的发展方向是什么?

方汉:我觉得音乐大模型目前的发展方向,实际上就是整个音频领域,比如从音乐到音效,然后从音效到人声,我都希望我们能够提供一揽子的解决方案。这个过程要配合视频生成模型去做,把Mureka做成最佳的辅助工具。

目前的主要困难在于影视配音缺乏好的数据。我们现在有大量的电影素材,首先你要把音乐分出来,再把音效分出来,再把人声分出来,然后还要给表演打上适量的标签。但这种数据其实很稀少,中国可能只有北电、中戏这样的学校才有相关课程。所以如何积累数据是我们要做的第一件事。

第二个就是可编辑性。它的困难不在于技术,而是在于产品层面。就是用户到底想怎么编辑,这个事其实需要不断地跟用户去交流,每个用户的需求都不一样,我们要不断跟使用我们产品的意见领袖去沟通,这需要非常长的磨合时间。

新皮层:算力成本会是个制约因素吗?

方汉:首先算力在我们整个产品的运营成本里占比并不高,可能还不如人力成本。算力成本的下降是非常明显的。举个例子,GPT3.5刚出来的时候,它的百万tokens是7到10美元;而最新数据,比如说用7B或者12B的模型,现在中国厂商百万tokens的价格是3分钱,美国厂商最便宜的是5美分,所以长期而言算力成本不是问题,它现在就已经能支撑一个很成熟的商业模式了。

所以问题的关键在于我们的利润率是否能提高。我们前期做了大量的投入,采购了大量显卡,招聘了大量的算法工程师。这个成本需要商业模式的成功来摊薄,就是我真正有个产品卖爆了,你才能看到我的利润规模大幅上升。总体而言,我们今年的财务状况肯定会比去年、前年要好很多,因为那时候买了很多显卡。

新皮层:所以未来还会增加投入吗?

方汉:人力还会增加,但是硬件投入会减少。

 

短剧与开源:短剧需要的模型与通用AI视频生成模型是不同的

新皮层:昆仑万维不久前还发布了AI短剧模型,你们看到了什么需求?

方汉:当前短剧产业的核心问题在于短剧的产量不够、质量不高。中国目前一年能生产3000部短剧,国外一年是1000多部。但这样的供给量是远远不够的,因为短剧的消耗速度其实很快,你看短剧一般是5分钟一集,然后40到50集一部,总共就200分钟,相当于一部长一点的电影。另外短剧的品质不是特别高,大部分短剧的制作成本总共才100万元。指望用传统的制作方法,在100万元预算下制作出《流浪地球》这种级别特效的短剧是决不可能的。

但是AI短剧工具介入之后,我觉得首先以相同的制作成本,未来能够做到《哪吒之魔童闹海》《流浪地球》这个级别的视听效果。当前短剧拍摄主要都是室内近景,未来借助AI工具,太空、战场都可以很便宜地做出来,比如一些过场镜头,炸辆汽车、炸栋房子,放在之前都是要真炸的,短剧剧组付不起这个钱。

所以短剧AI模型不仅能极大地提升产量,也能提升产品质量。我觉得最后大部分厂商都会拥抱这个变化。举个例子,现在AI在短剧市场用得最多的就是配音。你只用汉语拍了一部短剧,AI能瞬间翻译成几十国语言,一下子就完成了,这个效率非常恐怖。

新皮层:AI短剧模型跟AI视频模型有什么区别,你们有何优势?

方汉:我们这方面的规划比较简单,就是寻找通用视频模型之外的细分场景,我们最终决定瞄准短剧这种特定场景来做优化。短剧中演员的表情和表演是夸张的,为此我们专门在人脸表情以及表演动作上做了大量的数据积累,你甚至可以把我们现在的AI短剧模型称作AI表演模型。

新皮层:它的用户是?

方汉:这个目前严格说来是ToMCN,但是个人爱好者也可以拿它玩。我了解到有些个人爱好者已经借助AI短剧模型取得非常漂亮的数据。

新皮层:这两个AI短剧模型都是开源的,开源有什么好处?

方汉:对任何一个企业来说,你不可能满足所有用户的需求。最麻烦的是给你提需求的用户非常多,你不知道哪个需求是你该做的,但如果有需求你不做,那这些用户就会用脚投票,他们就不玩了。怎么去满足用户的长尾需求?我认为只有通过开源来解决。开源之后,那些有能力的用户就会改进你的模型去满足自己的长尾需求。一旦开源生态形成,我们能够从中找到用户最常用的长尾需求,从而让我们的产品变得越来越好,反哺我们的本源模型。

其次,开源模型可以帮助我们树立在业界的声望,这对于获取销售线索是非常有帮助的。因为这些公司或个人在本地部署模型发现效果不错后就会跟朋友说,朋友很可能缺少部署的技术和预算,怎么办?那他直接来用我们的SaaS服务就好了。这在专业领域更明显,这些用户是非常审慎和严格的,有开源的模型它们就可以试用,而我们只需要保证我们的SaaS服务比用户个人部署的价格更便宜、性能更好就够了。在Hugging Face上,我们的AI短剧模型两周的下载数就超过10万,与此同时,我们视频生成工具的订阅数也迎来了一次暴涨。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

昆仑万维 AIGC 音乐生成 AI短剧
相关文章