纯科学 04月09日 19:28
小米SU7事故再次证明自主式无人驾驶是不可能成功的
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了人类智能在科技发展中的作用,特别是针对人工智能无人驾驶的安全性提出了质疑。作者认为,人类的智能在多数情况下是有害的,科技进步往往依赖于“反智能”——即通过限制和消除智能来实现。文章分析了汽车安全标准、智能的本质,以及无人驾驶技术在现有技术水平下的局限性,强调了安全驾驶的重要性。

🧠 智能的本质是错误和不可靠,人工智能大模型存在的幻觉、错误是其内在属性,也是其创造力的来源。现有人工智能的概率性计算结果导致其在需要高可靠性的领域(如无人驾驶)存在根本性缺陷。

⚙️ 人类创造的机器本质上是通过限制甚至消除人类智能来实现的,训练、规则制定等“反智能”措施是提升可靠性的关键。工业级可靠性依赖于对问题的简化,而非单纯的技术能力提升,而人工智能研究往往倾向于复杂化问题。

🚗 汽车安全标准与测试存在局限性,碰撞测试速度限制,以及对电池安全、乘员逃生时间的实验条件都存在特殊规定。在高速行驶时,不要完全依赖智驾功能,应时刻保持警惕,做好接管车辆的准备。

🛣️ 作者提倡路车协同、车车协同的无人驾驶模式,并建议先定义和实现无人驾驶道路。通过建立电子路牌等系统,向无人驾驶汽车提供完备的路况信息,从而提高驾驶的可靠性。

原创 纯科学 2025-04-04 07:54 湖南

人类的智能在绝大多数情况下是极其有害的、是人类科技文明最大的毒药。人类文明的进步只在少数情况下受益于人类的智能,绝大多数情况下是靠反智能获得真正的进步。

本文目录:

一、智能的本质之一就是错误和不可靠
二、人类创造的机器本质上是通过限制甚至消除人类智能——“反智能"实现的
三、汽车安全问题
四、无人驾驶能否实现?
本文虽长达近万字,但有很多完全颠覆世人和人工智能业界的观点,值得每一个想活下来的车友和相关行业的从业者们认真仔细地反复读完。

刚看到网上热传的小米SU7高速上发生事故起火致车上3人遇难的消息,三个刚要毕业的女大学生在考编途中车祸身亡。这样的消息不免让人心如刀绞般难受,对逝者家属和恋人深感同情。只是此事的令人极度遗憾之处,不能不让我再次强烈呼吁对于人工智能无人驾驶一定要正确认识。希望借此机会再次讨论一下自主人工智能无人驾驶绝对不可能成功的问题。

我们当然不能去对此事件本身作任何结论性的判断,这个只有相关部门才能根据实际调查数据作出。但本文会尽可能普及所有与此相关的汽车安全标准知识、人的智能以及人工智能的本质,希望能使人们放弃一切不切实际的幻想和错误看法。

关于本文的核心观点,在十多年前无人驾驶概念刚开始热炒时,我因当时做投资的关系,就在各种场合,包括投资会议邀请我作演讲嘉宾讲人工智能,以及写媒体文章时就只要有机会就一再地反复强调过。要理解清楚这个问题,必须把与它们相关的所有要素都理解清楚。在其中每一个要素的理解上,可能全世界比我强的人都有无数,但要能把所有要素都合在一起理解清楚的人则凤毛麟角,这种通晓能力必须要由我创立的第三代科学方法的支持。我在四十年前上大学时就开始研究人工智能,30多年前上研究生期间就做过图像与视频的人工智能识别与卫星云图的人工智能模式识别工作。所以在这个领域全世界说话比我更权威的人可以用一只手数出来。关于这个问题与其他问题不同,任何网友不要拿自己的性命来与我争辩。



一、智能的本质之一就是错误和不可靠

要搞清楚为什么人工智能无人驾驶绝不可能成功,首先要理解什么是智能。关于这个问题,可以说目前全世界人工智能业界的理解全都是错的。举一个关键的例子,现在最热的人工智能大模型存在幻觉,有很多人工智能开发者就说他们已经解决了幻觉问题。但要理解,从本质上说,幻觉就是人类智能的最重要体现之一。人类与动物最大的不同之一,就是可以去创造现实世界没有的东西。幻觉,从另一角度说就是想象、创造。

现代智人进化的一个重要标志就是大脑皮层进化出想象的能力。南非的布隆伯斯洞穴(Blombos Cave)在约 10 万年前的地层中发现了刻有几何图案的赭石(矿物颜料),可能用于身体装饰或符号标记。另外还有穿孔贝壳,推测为早期首饰,暗示对 “美” 和象征意义的理解。这些发现表明智人已开始赋予物品非实用价值,是想象能力的早期体现。约 7 万年前智人经历了一次认知飞跃,掌握了“虚构故事” 的能力,也就是通过语言和符号构建抽象概念(如神话、社会规则),这成为大规模合作的基础。也正是在7万年前,现代智人开始大规模走出非洲,迅速扩散至全球,伴随复杂文化行为的出现(如精细工具、艺术、墓葬)。在此后全球多地的智人遗址上发现的岩画中描绘现实世界存在但变形了、或现实世界中根本不存在的事物。

所以,如果解决了大模型的幻觉,那它就不是人工智能了。对于这些最基本的关于智能的哲学问题,业界从标志人工智能诞生的1956年8月的达特茅斯会议上就完全没有搞清楚,尤其是被作为人工智能定义的图灵测试标准(1950年提出)本身就是大错特错的。

为什么人类能够进行创造?创造从另一个角度说就是出现幻想、幻觉、错误。因此,要想获得具备创造能力的人工智能,就要允许它出现幻觉,幻觉越大,创造性就越多,虽然这些创造出来的东西未必是有价值的。现在的人工智能大模型可以一本正经地胡说八道,反过来去看看人类,是不是也这样?

目前所采用的所有人工智能技术,都是一种概率性的计算结果,必然存在不可靠的地方。无论最早的模式识别,后来的卷积神经网络,深度学习,还是现在的大语言模型,全都是一种概率性的计算结果。既然是一种概率性的东西,就一定存在出错的概率,关键问题是你很难确定它什么时候会犯错误。

所以,用人工智能去创作一些图片、视频等艺术作品,反正只是一个你觉得美不美的东西,就算你觉得不美也无伤大雅。或者写一些会议讲话、演讲、宣传文案初稿,如果有不合适的、出错的地方,你后期修改过来就是了。但如果单纯用这样的人工智能去实现高实时性的、高可靠的功能,绝对不可能成功的。

二、人类创造的机器本质上是通过限制甚至消除人类智能——“反智能"实现的

人类创造的一切机器,它们本质上不仅不是模仿人类的智能,反而全都是通过限制甚至消除人类智能等“反智能”的努力来实现的。正因为人有智能,所以人做事本质上就不可靠,也可以说智能本质上就等同于不可靠。如果只能依靠人来做的工作,就必须通过对人类进行训练、甚至军事化的高强度严格训练来限制人类的智能,让人类机器化,由此才能提升做事的可靠性。人类之所以要发明各种机器,原因是因为两个:一是人类能力大小的限制,需要通过机器来提升技术能力。另一个就是通过限制、甚至消除人类的智能等反智能工作,来解决人类做事的不可靠性。前面一个是做加法,后面一个本质是做减法。

人类的训练是什么?就是消除人类随心所欲的做事习惯,也就是机器化。无论对此读者听起来是否舒服,必须明白它本质上就是这样。人类科技文明的进步就是在约束、限制、甚至极力消除智能等“反智能”的过程中发展起来的。

企业管理,就是尽最大可能地用管理规则去限制员工个人的智能,是反人性的东西。

所以,不要以为智能绝对就是好事情,在绝大多数情况下它不是好事情,是人类文明创造过程中要尽最大努力去限制和消除的东西。

那我们研发人工智能技术是为什么?是为了提升复杂工作情况下的可靠性。如果是简单工作,直接上机器就得了。

人工智能业界最大的错误认知,就是尽最大努力让机器去模仿人类的一切方面、尽最大可能让它“象人”,这个是大错特错的,从图灵开始就大错特错了。2023年初,当ChatGpt刚刚火爆出圈的时候,我就写文章泼凉水提醒人们注意,参见“网上最权威的人工智能分析”。其中就提到人工智能的本质:

人工智能 = 有效的人工智能 + 人工愚蠢 + 人工不靠谱(不可预测、可靠性差)




如不能尽知人工智能之不可靠者,亦不能尽知人工智能之利也。

人类发明各种机器时,最重要的标准就是可靠。当然,即使是工业级的可靠性,也不可能是100%绝对可靠的,但它们往往要求可靠性达到99.9999%这种小数点后面4个甚至6个以上9的级别。现在的一切人工智能都远远不可能达到这样的级别。这个是原理性的,不是技术问题。你再上1亿亿亿亿亿张最强或十年、二十年、三十年后最强的算力卡都没用。达不到的原因不是算力大小的问题,而是人们把问题本身就完全搞错了。别听外行的畅销书作家说的什么人工智能奇点,那全是人类对人工智能的幻觉。

人类发明的一切机器之所以能达到那么高的可靠性,不是因为人类发明的技术能力本身能强到那个程度,而是对问题进行了足够的简化。只有将问题简化到足够简单的程度时,才可能实现相应的可靠性。所以,工业级可靠性的实现,本质上主要不是靠工作机本身技术能力的提升(虽然这种提升也会有很大帮助),而是靠对问题的简化能力。前一个是做加法,后一个是做减法。

可靠性 = 对问题的简化 = 反智能(对智能的限制和消除)

但是,人工智能的研究在基本逻辑和哲学上就完全相反,他们不是去首先简化问题,而是把问题一上来就搞到“纯天然”(如“自然语言”等)的最复杂程度,然后想在这种最复杂的前提条件下去实现人工智能,所以它当然就不可能有太高的可靠性。

这就是为什么大量人工智能在秀的时候可能都很漂亮,因为秀的时候已经把问题进行高度简化了。但他给人们带来的想象却是在“纯天然”的、没有任何简化的条件下去实现这些功能,那怎么可能靠谱呢?

今天所有人工智能去秀的东西一点都不新鲜,我在一开始研究人工智能的40年前全都见过,无论是无人驾驶还是人形机器人,早就有大量的人做过。20世纪80年代日本的第五代计算机计划就是想研发“真正的人工智能”,当时相伴随的有一大批研究人形机器人的公司。但所有这些努力全都失败了,没有一个成功的。

宇树的人形机器人虽然在春晚上亮相引发全社会高度关注和热议,但我可以确定地告诉大家:这东西就是一个纯粹的玩具,不可能真拿它来干实际的工作。千万别想象着未来可以有这种机器人保姆把家务活都能干了。那同样是一种人类的幻觉。

早在宇树机器人被人们关注之前,就曾有一个国内主流高科技公司的CTO计划研究人形机器人来找我咨询。我很清楚地告诉他:纯粹的人形机器人绝不可能有商业模型,不可能成功的。原因和道理很简单,我说您是CTO,在做任何产品之前您要做的第一件工作是什么?—— 产品定义。

    非常清楚地确定其要实现的功能、性能等量化的技术指标。

    确定实现它们的技术能力和使用条件。

    以此为基础进行元器件和技术方案的选型

    确定产品成本。

    其他。

这种实现可不是只在特定条件下秀一把,而是要在很明确的实际应用场景里具有极高工业级可靠性地实现它们。同时,为了避免使产品过于复杂化,就得对应用场景作一定的严格要求和限制(温度、湿度、空气洁净度、环境条件、使用条件、操作规范等等),并在产品说明书中明确标示。如果突破这种限制,那就是使用者的责任而不是厂家的责任。

但是,所有人形机器人在研究的一开始有明确的产品定义吗?全都没有,这哪是在做产品?产品研发的失败往往就是产品定义不清导致目标失控,没有明确知道自己到底要干什么,由此就会陷入一个财务的无底洞。人形机器人研究者潜意识中指望开发出一种与人一样无所不能,外形也象人的机器,这就很容易从一开始就使产品目标陷于无边无际的状态了。

今天宇树人形机器人和所有其他的人形机器人能秀出来的所有功能,40年前的日本公司开发的人形机器人全都秀过,没有任何新鲜的。只不过是过一段时间人们把前面失败的全忘掉了,就又来秀一遍,因为秀这种人形机器人的确很吸引人。工程师们做一般的产品都会本能地按规矩进行产品定义,但凡遇到人工智能的问题时,就很容易犯迷糊,把作为工程师最基本的普遍规范和原则全忘掉了。

日本科技发展在上个世纪80年代的全面失败和掉进大坑里,就是以癫狂的幻觉去搞全面的人工智能化开始的。今天中国对于人工智能也有些过热,需要冷静一下。

2025年春晚上的人形机器人舞蹈


20世纪80年代日本风行的人形机器人研究

过去几十年间持续不断的人工智能概念,也使得在春晚上出现相关主题早就不是第一次了。

1996年蔡明郭达小品中的人形机器人主题

这样说并不是完全否定包括宇树机器人在内的所有人形机器人。我们还是强调,在研发任何产品之前,一定要清楚产品研发的基本规范。如果只是一种研究,提升人工智能的能力和水平,不是要马上开发出特定的产品,那没问题。但如果是要定位于实际应用的产品,就一定要明白前述基本的原则。

扫地机器人,洗菜机器,送餐机器人甚至成人玩偶类的人形产品等之所以成功,是因为它们在产品开发之前都进行了严格的产品定义。不要去幻想能实现《非诚勿扰3》里面舒淇扮演的那种人形机器人。同样不要去幻想可以完全靠自主人工智能无人驾驶的汽车。



千万千万记住:

人类的智能在绝大多数情况下是极其有害的、是人类科技文明最大的毒药。人类文明的进步只在少数情况下受益于人类的智能,绝大多数情况下是靠反智能获得真正的进步。

制定规则、标准、纪律、进行严格的产品定义等等,这些工作都是反智能、反人性的。

交通的安全靠什么?绝对不是靠人们想象中的人工智能,而是靠严格遵守交通规则,千万别有任何自作聪明的地方。什么是交通规则?就是交通机器系统中的反智能和反人性,千万千万请牢记这一点,否则您终将有一天会葬生于车轮之下。

人类只有将自己通过严格训练、严格遵守规则,把自己变成机器,才能在人类靠自己智能创造的反智能的机器文明洪流中保证自己的安全,才能去有效地使用那些机器。

以上对于理解人工智能是最为关键性的地方,也是我为什么一再强调我是全世界最权威的人工智能研究者、没有之一的原因所在。如果读者您能充分理解到这一点,我就不再说这句话了,您也是全世界最权威的人之一。

人工智能业界最大的愚蠢就是严重忽略了人类智能中有害和有毒的一面,把智能的一切方面全都当成好东西来进行简单的模仿。

现在智驾的标准是GB/T 40429-2021《汽车驾驶自动化分级》。


这个标准把汽车智驾分为从L0到L5的六个等级。但是,这个分级标准是非常模糊和初级的,只是一个定性的描述,还不能直接变成产品量化的定义。其中还存在大量未研究清楚的哲学、科学与技术问题。因此,现在没有任何厂家敢宣称自己的车达到L3级别。这里面的关键是:L3意味着车已经在一定条件下完全是由厂家的软件在驾驶,那么出现事故逻辑上就必须由厂家负责任了。

智能对不同群体的有益或有害比例是不一样的。在艺术家群体中,智能主要体现的是有益的一面。而在理工科群体中,智能只在系统设计、产品技术创新时是有益的,绝大多数情况下它是有害的东西。这也使不同的群体表现出思维方式的巨大差异,也是理工科群体可能不够人性化,而艺术家群体在做实事时往往不大靠谱的原因所在。

理工男水平的最大体现,就是其反智能的能力——定义产品、制定规则、制定流程、确定规程、制定标准......

我们切不要以为科技创新就是让人性得到无限的发挥,大错特错。

科技创新是智能与反智能、反人性的有效平衡。

三、汽车安全问题

小米SU7事故事件出现后,很多人、包括死者家属在讨论为什么车门开不了,为什么会燃烧等等问题。也有人说根据国家安全标准,热失控5分钟内不应发生燃烧和爆炸等。但很遗憾、可能也很残酷,希望人们能理解,在全世界范围内,车辆碰撞安全测试的最高速度是64公里/小时。这意味着什么?只要超过这个速度,无论出现什么情况都与厂家没任何关系了。曾经有一辆奔驰车发生事故,安全气囊未打开,司机死亡。逝者的父亲很悲愤,认为这么高级的豪车为什么在碰撞时安全居然还气囊打不开?但事实很遗憾也很残酷,如果碰撞时的速度超过每小时64公里,安全气囊能不能打得开全凭运气,打不开也没厂家任何责任。越是豪车,可能安全性上越是值得怀疑,因为他们经过的碰撞实验测试可能越少。最顶级的豪车,可能根本没机会进行足够的碰撞测试,那需要撞毁成百辆的车进行测试才足够。而那些最顶级的豪车总共的产量可能都没有几百辆。中东很多国家死亡率最高的因素就是车祸,原因就在于他们各种豪车太多了。

如果发生碰撞时车速都已经超过100公里每小时,谈论车门有没有打开,电车与燃油车谁更容易燃烧等话题全都是没有任何意义的。

所以,开车时你一定要拥有安全的刹车距离,并且时时刻刻准备刹车,这样即使出现事故,碰撞时的速度也一定要减少到每小时64公里以下。

关于电车安全相关的国家标准有GB/T 31498—2021《电动汽车碰撞后安全要求》,GB 38031—2020《电动汽车用动力蓄电池安全要求》等。如果想系统了解相关信息,推荐一个资源:

https://openstd.samr.gov.cn/bzgk/gb/index


在这个网站里可以查到所有中国现行国家标准的全文。

GB 38031—2020《电动汽车用动力蓄电池安全要求》是一个强制标准。它对动力电池安全的要求是什么呢?是在这个标准里的第5节。请看下面标准复制的拷贝:
看到这些要求读者可能很疑惑,这么多条件下都要求电池不起火、不爆炸,那是不是只要电车出事故后起火爆炸就不合要求呢?很遗憾,你得仔细看这些要求对应的详细实验条件是什么。例如,与碰撞可能相关的实验有电池挤压实验。

请注意8.1.7.3 c) 挤压速度:不太于2mm/s。如果换算成每小时是多少呢?不是70公里,不是7公里,不是70米,也不是17米,而是7.2米!!!什么意思:就是如果你的电车电池单体被挤压的速度达到了7.3米每小时发生爆炸,请一定注意是每小时,不是每秒,也不是每分钟,那就是符合国标要求的,没厂家任何责任。对比一下,蜗牛的爬行速度通常在每小时4米到8.5米之间。也就是说,如果动力电池被挤压的速度超过了蜗牛的爬行速度,发生爆炸了就没厂家的责任。你是不是感到不可思议?当然,因为电车如果发生碰撞,首先会有车头进行缓冲,动力系统也会对电池单体有严格保护。在一定的碰撞速度范围内,事实上就不会挤压到电池,因此电池就是安全的。但如果碰撞的速度突破了车头的缓冲和电池包的保护挤压了电池,基本上就没救了。不要以为电车因此就不安全,燃油车可能更差。不然的话燃油车发展了上百年了,为什么碰撞标准还是停留在每小时64公里?
GB 38031中规定了热失控的电池安全规定,5.2.7 b)要求提供一个5分钟的乘员逃生时间。但是,同样道理,我们一定得注意这个要求对应的实验条件是什么?
根据8.2.7.2热扩散的规定,实验条件在附录C里。这个里面对实验条件是怎么规定的呢?
请注意c.5.2试验条件里最后一条,“试验在室内环境或者网速不大于2.5km/h的环境下进行”。基本是静止状态下进行的测试。
GB 38031—2020标准是对电池单体的要求,那么从最终应用角度来说应该是整车碰撞安全要求。这个是在GB/T 31498—2021《电动汽车碰撞后安全要求》里规定的。
这个标准要求整车碰撞后30分钟内不爆炸、起火,是不是心中又升起很大的希望?很抱歉,道理还是一样,你一定得清楚碰撞的具体实验条件是什么。

正面碰撞的按GB 11551标准进行。这个标准是怎么要求的呢?

目前有效施行的是该标准的2014年版本。

碰撞实验的速度要求是每小时50公里!!!是不是心又全凉了?全世界的所有汽车,包括新能源车和传统燃油车的碰撞安全标准要求最高试验速度就是每小时64公里。

明白了以上这些就可以理解到,如果想使用智驾功能,从安全角度说最好在速度为每小时64公里以下时使用。所以,智能停车等低速功能是相对可以放心使用的。如果超过这个速度,你一定不要完全指望智驾功能可以保证你的安全。有人在高速上居然开着智驾功能睡着了,只能说他这次捡了一条命。不是说在高速上完全不能用智驾,只是一定要明白必须在遇到任何险情时最终靠自己来减速。高速路上之所以每隔一段距离就会出现50、100、150、200米的距离标识,就是提醒司机车速与刹车距离的关系,使得在前方出现险情时提前进行减速。现在智驾只是一种辅助,不要指望它真的实现完全的无人驾驶。

智驾系统是靠激光和视频摄像来获得路况信息的。视频信息需要通过人工智能技术去进行识别。如果识别前方有一个车辆,相对还比较容易。但如果高速路上有修路的情况,会提前很早有路牌进行提标。这种提示是给人看的,路牌上的警示信息人工智能可以识别吗?

给大家一个相关的数据吧!人工智能图像视频识别目前应用量最大的就是道路监控和停车场车牌号识别系统了。这种系统还只是识别比较规范的车牌信息,识别差错率是多少呢?水平比较高的在千分之1到千分之5,如果能做到万分之几就已经上天了。并且随着芯片性能和算法不断提升,要想继续提升这个技术指标难如登天。所以大家开车时可能偶尔会出现你在有这种功能的停车场拦杆可能打不开,你得反复把车前后左右移动几次才能被识别打开的情况。你能指望这种识别差错率的系统可以实现在120公里每小时速度下能以小数点后4个9可靠性地识别道路边上各种临时路牌信息吗?还是彻底死了这份心吧!

2024年,中国道路交通事故死亡人数为61,703 人,这一数据较 2023 年的 60,028 人略有上升,但整体仍处于近十年的相对稳定区间(年均约 6 万人)。2002年时,中国每年因道路交通事故死亡人数最高峰值数据为10.9万人。根据联合国世界卫生组织2022年发布的报告,自汽车发明以来,死于车祸中的人数已经突破5000万人,并且每年还在以120万左右的速度增加。这一数据已经超过一战的死亡人数总和。汽车是人类所有发明中造成的死亡数最大的,已经快达到被称为寡妇生产线的马克沁机枪造成的死亡人数总和3千万的2倍了。

汽车造成的死亡人数如此之高,最重要的原因就在于:每辆行驶中的汽车都有一个司机,而司机却是具有智能的人。替代人去开车的,还是模仿人类智能的人工智能。知道汽车事故死亡率最高的人群是谁吗?赛车手!早期F1方程式赛车手的车祸死亡率曾高达20%。2013年 11 月,在拍摄《速度与激情 7》期间,男主角保罗·沃克(Paul Walker)和友人罗杰·罗达斯(Roger Rodas)驾驶 2005 年款式的红色 Porsche Carrera GT 保时捷跑车,以 160 公里/小时速度撞上边栏,车体断成两半并起火爆炸,两人当场被烧得面目全非。银幕上演绎的是浪漫的《速度与激情》,现实生活告诉人们的却是“速度与惨祸”。

一切开车时认为自己车技更牛,比别人更聪明,更有智能的,就是在玩死亡游戏。

作为汽车厂家,绝不应当为推销自己的汽车有任何夸大智驾的能力,并且有义务宣传本文的核心观点,提醒司机相应的安全问题,否则对出现死亡事故至少是存在道义上的责任的。

现在的智驾能否使用呢?在严格约束的条件下是可以的。正好在写这篇文章时,我与伙伴开车从河南到湖南参加一个展会,在路况比较清晰的情况下,使用智驾可以不用时时刻刻脚踩在油门上,只要手扶着方向盘就可以了。即使是这样,也可以极大地减轻开车的劳累,有助于极大增加行车的安全性。我一般在高速上开非智驾的车,150多公里就开始感觉很疲劳了,但4月3号开车采用智驾功能,最远一次性开了近300公里,基本没感觉有劳累。另外,依靠智驾在换道口时更为可靠,人往往可能在复杂道口换错道路。这些都是应用智驾的很大好处。但是,有一些原则必须要严格遵守:

    手绝对不能长期离开方向盘。好的智驾设计会在你的手离开方向盘超过很短的时间,就会马上提醒你,如果还没有把手放在方向盘上,车应自动靠边停车。

    绝对不能睡觉。好的智驾汽车设计应当能发现并叫醒睡觉的司机。

    遇到路况开始变复杂,尤其前方有车祸,修路等情况时,要迅速接管车辆,或做好接管的准备。

    很多时候不是你自己的问题,而是会在路上遇到各种行车不规范的司机。如果后方有车辆在很近的距离超车并迅速在你前方并线,智驾不一定反应得过来,此时要及时踩刹车接管车辆。

四、无人驾驶能否实现?

本文批评自主智驾系统要实现L5级别的无人驾驶是不可能的,并不是说任何无人驾驶都一定不能实现。请注意我们的核心观点:高可靠性主要是通过简化问题来实现的。高速公路本身就是一种对交通问题的简化。把道路修得路况尽可能简单,以此实现高速行驶时的安全驾驶。

现在的智驾系统概念是自主式的无人驾驶理念。我一向推崇路车协同、车车协同式(车联网)的智驾。并且推崇首先定义和实现无人驾驶道路,而后才能来谈无人驾驶。

例如,如果要马上实现全路网路车协同可能比较困难,但先开发部分情况下的路车协同是相对容易实现并且投入不大的。此次车祸事件就是在修路的路段发生车祸。这种复杂路况发生车祸的几率的确远大于正常路况。现在高速公路管理系统都是按有人驾驶来进行规划建设和维护的。修路时设计的提示牌都是给人看的,这样一些车辆就有可能并不能有效接受相应的信息。如果是按无人驾驶道路概念来进行设计,那就要有路车协同的系统。当道路进行维修时,不能仅仅是设置给人看的道路提示牌,而是要有电子路牌,类似ETC这样的无线信息传递系统,直接把路况信息传递给无人驾驶汽车,以及导航系统。这样的无人驾驶系统会得到工业级可靠性的完备路况信息,就可以作出工业级可靠性的驾驶决策。在这样的路车协同基础上,可以不断增加越来越多的路车协同功能。


延伸阅读:

网上最权威的人工智能分析

中文在人工智能时代的优势,东方卫视《这就是中国》

如何以DeepSeek为契机实现信息技术全面超美?

为什么中国人工智能落地已经遥遥领先全球?

AI大模型、中模型、小模型谁主沉浮?

美国人工智能泡沫何时破灭?
中国人工智能突破的有效路径 —— 科技以好玩为本
数字经济重塑中国
从“标准战略”转向“国际标准组织战略”
视讯----IT业的诺亚方舟
专业大模型,而不是“通用”人工智能
汪涛:网上最专业的VR分析文章
资深IT人详解什么是“元宇宙”——细说历史上那些“什么都不是”的概念
战略决战:中国科技如何领导世界——最权威分析
中国科技企业如何避坑:十年7个技术方向,1/128,选择题全对






阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

智能 反智能 无人驾驶 汽车安全
相关文章