深夜的高速公路上,一辆车的屏幕里,一个模糊的人影正“追着”车跑——这不是恐怖片开场,而是去年闹得沸沸扬扬的“鬼跟车”事件。车主拍下视频时,估计后背都发凉了。而另一边,新闻里偶尔会弹出“某AI聊天机器人被指控与致命事故有关”的标题,让人心里一咯噔。这两件事,看似风马牛不相及,但仔细一想,内核惊人地相似:都是“智能系统”在复杂现实世界里,突然“抽风”了。
我们今天聊的“ChatGPT撞车”,当然不是指那个聊天机器人真的开着车冲出了马路。它是一种隐喻,一种象征——当以ChatGPT为代表的大语言模型所展现的“幻觉”(一本正经地胡说八道)能力,与以自动驾驶为代表的物理世界感知决策系统相遇时,可能引发的信任危机、安全悖论与产业震荡。这更像是一场发生在数字与物理边界上的“车祸”,撞碎的是我们对AI全能、绝对可靠的幻想。
我们先来看看这两起标志性事件。
事件A:理想汽车的“幽灵乘客”
事情很简单,一位理想L8 Pro车主发现,在雨天行驶时,车辆的中控屏上,辅助驾驶环境模拟显示里,始终有个类似人形的图像紧紧跟在车后,像幽灵一样。官方后来解释,这是视觉感知算法的一个显示漏洞:后挡风玻璃上的水滴在摄像头里形成了特殊的光晕,算法错误地将其识别并渲染成了“人”。请注意,官方强调这“只影响环境显示,不影响功能控制”。也就是说,车自己开得很正常,没刹车也没乱拐,只是屏幕“眼花了”,给司机看了个“恐怖片”。
事件B:马斯克与奥尔特曼的“隔空车祸”
今年初,科技圈两位大佬在社交媒体上吵了起来。马斯克转发了一条声称“ChatGPT发布以来已导致9人死亡”的帖子,并警告“别让你爱的人用ChatGPT”。OpenAI的CEO奥尔特曼立刻反击,一方面说明公司在安全上的努力,另一方面直指特斯拉的Autopilot自动驾驶系统,称“已有超过50人死于与之相关的事故”,并说自己坐过一次就感到“强烈不安”。
| 对比维度 | “鬼跟车”事件 | “ChatGPT夺命”指控 |
|---|---|---|
| :--- | :--- | :--- |
| 涉事主体 | 智能驾驶(视觉感知算法) | 大语言模型(ChatGPT) |
| 问题表现 | 感知幻觉:将水滴误识别为人体 | 信息幻觉:可能生成有害、误导性内容 |
| 直接风险 | 造成驾驶员困惑、恐慌,干扰判断 | 传播虚假信息,诱导危险行为 |
| 官方定性 | 特定版本算法显示漏洞,不影响控制 | 指控存在争议,涉及模型安全与使用边界 |
| 共同核心 | AI系统在复杂场景下的输出不可靠性 | AI系统在复杂场景下的输出不可靠性 |
看明白了吗?一个是在“看”世界时产生了幻觉(把水滴看成人),一个是在“说”世界时产生了幻觉(可能编造危险信息)。它们都偏离了“真实”。这种偏离,在技术领域被统称为“AI幻觉”。对自动驾驶来说,幻觉可能意味着把路牌看成行人;对ChatGPT来说,幻觉可能意味着编造一个不存在的学术论文,或者——在极端恶意利用下——生成一套详细的犯罪指南。
所以,所谓的“撞车”,本质上就是高度复杂的AI模型,其内部巨大的参数和模式匹配机制,在面对训练数据未能完美覆盖的、充满噪声和不确定性的真实世界时,所必然产生的“认知偏差”。雨天反光、模糊图像对于摄像头,就如同歧义问题、诱导性提问对于语言模型,都是容易“翻车”的测试用例。
有人会说,聊天是聊天,开车是开车,两者井水不犯河水。但现实是,它们正在快速融合,而融合点可能成为新的风险倍增器。
想想看,未来的智能汽车座舱里,你的语音助手可能就是ChatGPT级别的模型。你问它:“前面路面那些亮晶晶的东西是什么?”它如果基于网络上的错误信息或自身幻觉,回答“哦,那只是一些装饰反光,放心开过去”,而实际上那是大片冰面,后果会怎样?这不再是屏幕上的“鬼影”,而是可能通过语音指令,直接影响驾驶决策的“信息鬼影”。
更宏观的影响在于开发和运维层面:
1.辅助编程与算法生成:工程师可能利用ChatGPT等工具来编写或调试自动驾驶的部分代码。如果模型在代码中引入了难以察觉的逻辑漏洞或安全缺陷,这些漏洞就会直接“编译”进汽车的控制系统。
2.训练数据污染:用于训练自动驾驶模型的海量数据(特别是标注数据),如果其处理、清洗、标注环节引入了由AI生成的错误或偏见信息,就像在食谱里混入了杂质,最终会损害整个系统的“健康”。
3.虚假信息风暴:正如甘肃那个用ChatGPT编造“火车撞死9人”虚假新闻的案件所示,AI能以前所未有的效率和可信度炮制假消息。一旦关于某品牌汽车“突然失控”、“刹车失灵”的AI生成虚假视频和报道在社交媒体上病毒式传播,引发的品牌信任危机和社会恐慌,其破坏力不亚于一次真正的重大事故。
你看,危险从不单一存在。当感知系统的“视觉幻觉”、决策系统的“逻辑幻觉”和交互系统的“语言幻觉”交织在一起,就构成了一张难以厘清的“罗生门”网络。事故发生后,是车的问题,是算法的问题,是驾驶员误用,还是网络谣言导致的心理暗示?各方说辞不一,真相扑朔迷离。特斯拉的许多事故调查就常陷入这种困境,未来,这种困境可能成为智能汽车行业的常态。
面对这些潜在和已现的“车祸”,我们是不是该一脚踩死刹车,叫停所有AI在关键领域的应用?显然,因噎废食不可取。更理性的方式是,为这辆越来越快的AI赛车,装上更灵敏的刹车系统,同时明确赛道规则。
1. 技术层面:从“感知智能”走向“认知可解释”
“鬼跟车”事件后,理想汽车通过OTA升级快速修复了漏洞。这说明,持续迭代和打补丁是应对已知幻觉的必须手段。但更深层的,是需要AI系统,尤其是驾驶系统,具备一定的“认知可解释性”。不能只给一个结果(“那是个人”或“那是水”),最好还能给出置信度(“我有85%的把握那是光晕”),甚至在不确定时,明确告诉人类“我看不清,请接管”。同时,多重传感器冗余(激光雷达、毫米波雷达与视觉融合),是抵消单一感知源幻觉的关键技术路径。
2. 监管层面:为“AI生成”贴上溯源标签
甘肃假新闻案当事人被刑拘,依据的是治理网络虚假信息的法律法规。这开了个好头,表明利用AI犯罪,罪加一等。未来的监管必须更加前置。比如,要求AI生成的内容(无论是新闻、代码还是汽车诊断报告)尽可能带有可追溯的元数据或隐形水印,就像给食品贴上生产日期和成分表。对于自动驾驶,则需要更严格的“虚拟碰撞测试”和仿真环境压力评估,专门针对各种“幻觉”场景进行训练和考核。
3. 公众层面:祛魅与建立合理预期
也许是最重要的一环:我们该如何看待AI?它不是神,也不是完美的机器。它是一次概率的舞蹈,一次基于数据的猜测。我们需要普及这样一种认知:AI会犯错,而且可能以非常奇怪、反直觉的方式犯错。驾驶辅助系统(L2级)名为“辅助”,责任主体就永远是驾驶员。同样,对于ChatGPT给出的任何信息,尤其是涉及安全、健康、法律等重要领域的,都必须进行交叉验证。公众对AI能力抱有合理预期,是防止“技术恐慌”和“过度依赖”的心理刹车。
回过头看,ChatGPT引发的热潮和自动驾驶遭遇的挑战,其实是AI技术在不同维度攀登同一座高峰时的不同表现。这座高峰的名字叫“在开放、动态的真实世界中实现可靠、安全的智能”。
这条路没有终点。因为真实世界是无限复杂的,总会有新的“边缘案例”出现——前所未有的暴雨天气、造型怪异的路障、充满歧义的路标、别有用心的提示词……每一次“撞车”(无论是真实的还是隐喻的),都是一次昂贵的“数据收集”,它暴露了系统盲区,为下一次迭代指明了方向。
所以,与其恐惧“撞车”,不如正视它。“鬼跟车”不可怕,可怕的是我们对“AI永不撞车”的迷信。马斯克和奥尔特曼的争吵,虽然充满了商业博弈的味道,但客观上把AI安全的话题推到了聚光灯下,这是好事。
未来的智能汽车,或许会内嵌一个不断进化的“安全副驾”AI。这个AI不仅会看路,还会反思自己“看”得对不对;不仅能对话,还能评估自己“说”的话是否安全可靠。它将同时对抗视觉幻觉和语言幻觉。
而我们人类,则需要在驾驶员、乘客、用户和监督者的多重角色中,找到平衡。我们既是AI进化的燃料(提供数据),也是AI方向的舵手(设定规则与伦理),最终,更是AI所有行为后果的承担者。这场漫长旅程的终点,不是制造出永不犯错的“神”,而是建立起一套容错、纠错、共生的“人机协同”安全体系。
到那时,再谈起今天的“ChatGPT撞车”和“鬼跟车”,或许我们会会心一笑,把它们看作智能时代黎明时分,一些必要且值得铭记的“磕磕绊绊”。毕竟,学走路的孩子,哪有不摔跤的呢?关键是要摔得明白,并且每次摔倒后,都能更稳健地站起来。
