钛媒体:引领未来商业与生活新知 04月25日 11:30
百度李彦宏:如果没有应用,DeepSeek等 AI 模型和芯片都没有价值|钛媒体AGI
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

百度创始人李彦宏在Create开发者大会上发布了文心大模型4.5 Turbo和文心大模型X1 Turbo,旨在解决当前大模型存在的问题,如模态单一、幻觉高、速度慢和价格贵等。李彦宏认为,开发者面临大模型快速迭代的焦虑,应用开发面临挑战。他强调AI应用才是创造价值的关键,并指出闭源模型在效率和成本上更具优势。新发布的Turbo版模型在速度和价格上均有显著提升,并展示了百度在算力基础设施方面的实力,为开发者提供更强大的支持。

🚀 李彦宏认为当前大模型存在模态单一、幻觉高、速度慢和价格贵等问题,并指出开发者面临大模型快速迭代带来的焦虑,担心应用快速过时。

💡 李彦宏强调AI应用才是真正创造价值的,没有AI应用,模型和芯片都毫无价值。他认为开发者需要理解技术发展趋势,并找对场景、选对基础模型。

💰 文心大模型4.5 Turbo和文心大模型X1 Turbo发布,Turbo版速度更快、价格更低。例如,文心4.5 Turbo的输入价格仅为DeepSeek-V3的40%。

💻 百度还公布了基于昆仑芯三代P800的中国首个点亮的全自研3万卡集群,可支持多个千亿参数大模型全量训练和1000个百亿参数大模型精调,为开发者提供算力支持。

百度创始人、CEO李彦宏

4月25日消息,钛媒体AGI获悉,今天上午武汉举行的百度Create开发者大会上,百度创始人、董事长兼CEO李彦宏正式发布文心大模型4.5 Turbo和文心大模型X1 Turbo。

李彦宏认为,当下以DeepSeek为代表的部分模型仍然存在模态单一、幻觉高、速度慢和价格贵等问题,而百度发布这两款新模型,正是为了解决这些问题。

李彦宏在演讲中表示,DeepSeek横空出世,MCP(模型上下文协议)逐渐被接受为行业标准,代码智能体和通用智能体等多智能体协作产品被广泛关注,越来越多的人加入到开发者的队伍。过去一年,开源中国社区增加了150万个开发者,但同时,不少开发者充满了焦虑,模型迭代这么快,模型能力也越来越强,那么开发者基于大模型开发出来的应用,会不会很快就过时,就没有价值了——这种担心不无道理。

“大模型的世界风云变幻,几乎每周都有发布,天天有更新。去年第四季度有49个大模型更新发布,今年一季度就有55个,最多的时候一周发8个模型。一边,大模型的厂商卷生卷死,另外一边对于开发者来说又无所适从,不敢放心大胆的做应用,为什么?因为担心自己做的应用被模型迭代给快速覆盖掉,这样就相当于是白费了功夫。”李彦宏称。

李彦宏认为,当前对于开发者来说是一把双刃剑。一方面,开发者确实需要理解技术发展的趋势,避开大模型自身发展的延长线;另一方面,日益强大的模型能力其实给开发者带来了更多选择,需要找对场景、选对基础模型。

李彦宏强调,AI应用才是真正创造价值的。没有AI应用,什么模型、什么芯片其实都没有价值。

这是李彦宏对于 AI 技术行业的最新言论。

早前,李彦宏曾表示,中国的大模型太多。国内有200多个大模型其实都没有什么使用量。他还曾指出,百模大战是对社会资源的极大浪费,更多资源应该放在超级应用。同时,包括百度在内的大公司内部反应太慢、生产力落后。

2024年7月,李彦宏直言开源模型就是“智商税”。“当你理性地去想,大模型能够带来什么价值,以什么样的成本带来价值的时候,就会发现,你永远应该选择闭源模型。今天无论是ChatGPT、还是文心一言等闭源模型,一定比开源模型更强大,推理成本更低。”

2024年4月百度Create大会上,李彦宏再度表示,同等效果下,成本明显更低,所以开源 AI 模型会越来越落后。随着今年中国开源AI大模型DeepSeek-V3/R1风靡全球之后,李彦宏的这句话再被热议。

李彦宏曾强调,大模型的算力推理其实很贵。所以说开源大模型的价值在教学科研这些领域,要想搞清楚大模型的工作原理是什么,如果不知道源代码什么的肯定是有劣势的,但是真正在商业领域,当你追求的是效率、效果,追求的是最低的成本时,开源模型是没有优势的。

李彦宏表示,DeepSeek不是万能的,比如它只能处理文本,还不能够理解声音、图片、视频等多模态内容,而百度智能云的很多客户都需要这种多模理解和生成的能力;同时再比如,它的幻觉率比较高,在很多场合你不能够放心使用,如果在电商直播当中幻觉出“买一送一”的优惠,那么商家就要赔惨了;此外,中国市场上绝大多数大模型API的调用的价格都比DeepSeek满级版要低,而且反应速度也更快。

如今,李彦宏发布全新文心大模型4.5 Turbo和文心大模型X1 Turbo。对比文心4.5,Turbo版速度更快、价格下降80%,每百万tokens的输入价格仅为0.8元,输出价格3.2元,仅为DeepSeek-V3的40%;而文心大模型X1 Turbo价格,仅为DeepSeek R1调用价格的25%,输入价格1元/百万tokens,输出价格4元/百万tokens。

此外,百度还公布基于昆仑芯三代P800的中国首个点亮的全自研的3万卡集群,李彦宏称其同时承载多个满血版DeepSeek这样千亿参数大模型进行全量训练,也可以支持1000个客户做百亿参数大模型精调。

“现在可以说,在中国开发应用,我们有底气。”李彦宏在演讲结尾表示,坚信应用创造未来,开发者创造未来。

(本文首发于钛媒体App,作者|林志佳)

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

李彦宏 文心大模型 AI 大模型 百度
相关文章