当“人工智能”成为席卷全球的科技浪潮与投资热词时,机器学习领域的奠基人之一迈克尔·乔丹却多次发出与众不同的声音。他认为,一场真正意义上的人工智能革命尚未发生,公众和媒体所热议的“AI”,在很大程度上是“机器学习”概念的混淆与泛化。这并非否定技术的进步,而是对当前发展方向的深刻反思。人工智能的喧嚣背后,隐藏着对技术本质、社会影响以及未来路径的集体性误解。
一个核心问题随之浮现:如果当前我们追逐的并非真正意义上能匹敌人类的“类人智能”,那什么才是人工智能更现实、更迫切的使命?乔丹通过其跨学科的视野,给出了一个工程学范式的答案:构建一个融合计算、数据与人类福祉的“智能基础设施”。这个系统不以模仿人类大脑为终极目标,而是致力于通过严谨的工程原则,将机器与人类无缝结合,以解决医疗、交通、金融等领域的行星级规模问题。
在乔丹看来,当前人工智能的讨论与实践存在三个被严重忽视的关键维度。正是这些维度的缺失,阻碍了我们迈向更可靠、更有价值的人工智能系统。
当前的人工智能模型,如大型语言模型,往往被设计为单一的、强大的智能体。然而,乔丹指出,真正的智能,尤其是在解决复杂现实问题时,往往体现在集体协作之中。人类社会的运转、科学知识的积累、经济系统的繁荣,无一不是无数个体通过复杂交互与协作达成的。将人工智能的发展重新定位为构建“协同智能体系统”,是未来十年的关键课题。这意味着我们需要设计能够让多个AI智能体像人类团队一样分工、协商、互补的系统,而非仅仅追求单个模型的参数膨胀。
我们生活在一个充满不确定性的世界,人类的决策往往建立在概率和信念之上。然而,当前的主流AI系统,例如ChatGPT,在生成信息时通常以高度确信的口吻呈现,缺乏表达“不确定性”或“置信度”的内在能力。乔丹曾尖锐地提问:“ChatGPT,你确定你刚生成的是对的吗?”系统无法回答。这种缺陷在医疗诊断、金融风控等高风险领域是致命的。未来的AI系统必须像优秀的统计学家一样,能够量化并传达其判断的不确定性,从而为人类决策者提供更可靠的支持,而非制造一种全知全能的幻觉。
AI系统拥有海量数据,但数据本身并不自动产生价值。乔丹引入了经济学的核心概念——激励机制。他认为,需要设计一套精巧的激励框架,来驱动数据所有者、AI平台、服务使用者之间形成良性循环。为此,他提出了“三层数据市场”模型:
通过设计激励机制,可以确保数据流动不仅能训练出更强大的模型,更能直接为数据的贡献者和社会整体创造可见的价值,解决数据隐私与效用之间的矛盾。
为了更清晰地理解乔丹的观点,我们可以将当前的主流AI叙事与他所倡导的范式进行对比:
| 对比维度 | 主流“类人AI”叙事 | 乔丹倡导的“智能基础设施”范式 |
|---|---|---|
| :--- | :--- | :--- |
| 核心目标 | 创造匹敌或超越人类通用智能的硅基实体。 | 构建增强人类能力、解决行星级规模问题的工程系统。 |
| 关注焦点 | 模型的感知能力(如看、听、说)、生成能力、游戏竞技水平。 | 系统的可靠性、安全性、可解释性以及与社会经济的融合机制。 |
| 关键技术 | 深度学习、强化学习、大模型训练。 | 机器学习、统计学、经济学、激励机制设计、系统工程的交叉。 |
| 评价标准 | 基准测试分数、对话流畅度、图像生成逼真度。 | 实际社会问题解决效率、成本效益、对不确定性的量化管理、集体协作效能。 |
| 隐喻 | 创造“人造大脑”。 | 建造为人类生活服务的“智能电网”或“数字神经系统”。 |
这张表格揭示了一个根本性的转向:从充满科幻色彩的“智能创造”,转向脚踏实地、关注社会效用的“工程构建”。乔丹提醒我们,在追逐“酷炫”的AI表现时,不应忽视那些更基础、更紧要的挑战。
那么,如何实现从当前现状向理想范式的跨越?乔丹的构想是建立一门全新的工程学科。这门学科不同于传统的计算机科学,它深深植根于以下几个原则:
首先,它必须是跨学科的。其基础不仅包括计算机科学和统计学,还必须融入经济学、社会学、伦理学乃至人文学科的视角。因为系统处理的将是关于人、服务于人的数据与决策。
其次,它必须以安全与责任为核心。正如土木工程需要确保桥梁不倒塌,化学工程需要防止有害泄漏,智能系统工程必须将可靠性、公平性、隐私保护和负面影响缓解内置于设计原则之中,而非事后补救。
最后,它需要全球性的协作与治理。乔丹提到的“全球主义”趋势在此同样适用。我们正在构建的是一个全球互联的数字“超级计算机”,其规则和标准需要国际社会的共同参与制定,以确保技术进步惠及全人类,而非加剧不平等。
*问:乔丹是否在贬低当前人工智能技术的价值?
答:绝非如此。他是在为这项技术的长远发展“正名”和“导航”。他肯定了机器学习等技术的巨大成就,但反对将其与“人类级智能”的幻想过度绑定。这种绑定既夸大了现状,也窄化了潜力。他的批评是一种建设性的纠偏,旨在将社会的注意力与资源引导至更具深远影响的“智能强化”与“智能基建”领域。
*问:“激励机制”听起来很经济学,这和AI技术本身有什么关系?
答:关系至关重要。在数据驱动的AI时代,技术系统与社会经济系统已密不可分。没有良好的激励机制,就难以获得高质量、可持续的数据供给;没有合理的价值分配,AI应用就可能演变成对用户数据的掠夺。技术决定了AI的“能力上限”,而激励机制决定了其“价值实现的下限”。乔丹将经济学视角引入,正是为了确保AI系统能在真实世界中健康、持久地运行并创造普惠价值。
*问:对于普通人和产业界,乔丹的观点有何实际启示?
答:启示在于转变评估与投入的视角。对于个人,应更关注AI工具如何处理不确定性、是否公平透明,而非仅仅惊叹其“拟人”程度。对于企业,在引入AI时,除了考虑模型精度,更应审视:该系统是否促进了内部或生态的集体协作?是否具备评估与表达不确定性的机制?其商业模式是否设计了良性的激励,让所有参与者(包括用户)都能获益?这些问题的答案,或许比单纯追求“更智能”的标签更能决定一个AI项目的成败。
