你有没有过这样的体验?跟AI聊天,让它帮你规划个旅行,它能把航班、酒店列得清清楚楚,但你随口问一句“那天的天气适合穿什么?”,它可能就卡壳了,或者给出一个完全不合季节的建议。又或者,你让它写一篇“新手如何快速涨粉”的攻略,它可能洋洋洒洒列出十条方法,却完全没考虑到你是个零粉丝、零预算的纯小白,那些需要团队和资金的方法对你根本没用。
这种感觉,就像AI有时特别“聪明”,有时又显得特别“一根筋”。这背后,其实藏着一个困扰了人工智能领域几十年的老大难问题,行话叫“框架问题”。今天,咱们就抛开那些让人头大的术语,用大白话聊聊,为啥看起来无所不能的AI,一碰到“框架问题”就容易露怯。
想象一下,你让一个机器人去客厅帮你拿放在茶几上的遥控器。对一个人类来说,这任务太简单了:走进客厅,找到茶几,拿起遥控器,回来。整个过程里,你“自动”知道无数件不需要去操心的事:你不会担心走路会踩塌地板,不会考虑要不要先把天花板上的灯关掉,更不会在拿起遥控器时,纠结是不是该把整个茶几都搬回来。
但早期的AI研究者发现,要教会AI理解这些“不需要做的事”,简直难如登天。这就是框架问题的核心:世界是无限复杂和变化的,任何一个微小的动作,都可能引发无数其他状态的改变。而AI(尤其是基于规则的早期AI)很难区分哪些相关、哪些无关,它倾向于认为“一切皆有可能改变”,从而导致推理陷入瘫痪,或者做出极其荒谬的判断。
简单说,AI缺乏人类那种与生俱来的“常识性忽略”能力。我们人类大脑里好像自带一个智能过滤器,能瞬间屏蔽掉海量的无关信息,只聚焦在关键点上。而AI,尤其是处理逻辑和推理的AI,往往像个诚实的“死心眼”,你让它考虑A,它可能连带着把从A到Z的所有可能性都琢磨一遍,结果就是越想越复杂,最后“死机”。
那么,为什么AI这么怕“框架问题”呢?咱们掰开揉碎了看。
第一,它没有“身体”,也没有“生活”。
我们人类的常识,很大程度上来自我们作为一个“人”在这个物理世界里的长期生活体验。我们知道水是湿的,火是烫的,玻璃杯掉地上会碎。这些知识不是从书本上学来的公式,而是通过感官和互动“体验”来的。AI呢?它的一切认知都来自我们喂给它的数据——文字、图片、代码。它“知道”玻璃杯掉地上会碎,是因为成千上万的文本里都这么写,但它没有“摔碎过一个杯子”的触觉、听觉和视觉的整合体验。所以,当遇到需要结合物理世界常识进行推理的复杂情境时,它就很容易漏掉一些对我们来说显而易见的“背景板”。
第二,它太依赖“模式”,而不是“理解”。
现在的AI,特别是大语言模型,厉害在能从海量数据里发现统计规律和模式。你问“新手如何快速涨粉”,它能把网上最常被提及的方法模式给你组合出来。但这不等于它“理解”了“涨粉”背后的社会动力学、平台算法、以及一个真实新手的焦虑和资源限制。它只是在做模式匹配和概率预测。一旦你问的问题跳出了它训练数据里常见的模式框架,或者需要它动态构建一个新框架来理解独特情境,它就懵了。
我们可以看个简单的对比:
| 人类思维 | AI(当前主流)思维 |
|---|---|
| :--- | :--- |
| 基于体验和常识,能自动忽略无关信息。 | 依赖数据中的统计模式,难以区分信息的相关性。 |
| 能进行抽象和类比,举一反三。 | 擅长在给定框架内优化,不擅长自主建立新框架。 |
| 理解意图和上下文,能灵活调整。 | 对提示词(Prompt)高度敏感,上下文窗口有限。 |
第三,它处理“抽象概念”和“逻辑嵌套”很吃力。
框架问题往往出现在需要多层抽象推理的时候。比如,“去超市买牛奶”这个任务。对人类来说,隐含的步骤和条件太多了:要知道超市是卖东西的地方、牛奶是一种商品、需要付钱、超市有营业时间……这些对我们来说不成问题。但对AI来说,每一个隐含条件都可能是一个需要显式定义的“框架”。当任务变得更复杂,比如“为一场为期三天的家庭聚会制定采购计划,并确保满足不同年龄成员的需求和过敏史”,这里面的变量和隐含框架就呈指数级增长,AI很容易顾此失彼,制定出有逻辑漏洞的计划。
好,问题抛出来了:AI在框架问题上表现这么“憨”,是不是说明它永远没法真正像人一样思考?我们是不是被它的华丽表现给骗了?
我的看法是,既不必过分悲观,也要清醒认识局限。
说不用悲观,是因为科学家们一直在找办法“绕过”或“缓解”框架问题。比如:
*给AI配上“工具”和“记忆”:让AI能调用计算器、搜索引擎、数据库,相当于给它外接了“常识库”,不必所有事都靠自己硬想。
*设计更聪明的“智能体”框架:让AI学会“反思”——“我上一步的计划失败了吗?为什么?”。学会“规划”——把大任务拆解成一个个可执行的小步骤。甚至让多个AI智能体分工协作,有点像我们人类的工作团队。
*接受“不完美”:在很多实际应用里,我们并不需要AI具备完全的人类常识。把它限定在一个明确的、框架清晰的领域内(比如下围棋、翻译、生成特定格式的文案),它能表现得比人类还好。
但我们必须清醒的是,目前的AI,尤其是基于大数据和统计的AI,在需要深层次理解世界运作机制、进行创造性框架构建的任务上,仍然力不从心。它更像一个拥有惊人“学识”和“文笔”的超级实习生,能在你规定好的框架内出色完成任务,但还无法独自面对一个完全开放、模糊、需要自己定义问题边界和成功标准的挑战。
所以,回到最初那个感觉:为什么AI时而聪明时而傻?因为它的大部分“聪明”,都发生在人类已经为它设定好或隐含了“认知框架”的领域内。一旦它需要自己识别、建立或切换这个“框架”,它的“傻”就暴露出来了。
对我们普通人来说,理解这一点特别有用。这意味着:
1.别把AI当“神”,它是有边界的工具。知道它怕什么,你才能更好地用它。
2.你才是“框架”的制定者。在使用AI时,你思考得越深入,问题定义得越清晰,给它的背景和约束越具体,它的表现就越好。问“怎么写简历”不如问“为一个有5年互联网运营经验、想转行产品经理的人,写一份突出数据分析能力的简历”。
3.它的“傻”恰恰是你的机会。那些需要打破常规、建立新连接、理解复杂人情世故的事情,目前依然是人类的专属舞台。
看清AI在“框架问题”上的窘境,不是要贬低它,而是为了更踏实、更有效地与这个强大的新伙伴共处。它负责在框内做到极致,我们负责为它画框,以及,去探索框外那片更广阔、更迷人的未知。
