我常常在想,人工智能这东西,到底是怎么一回事?它好像突然就闯进了我们的生活,带着点神秘,又带着点理所当然。特别是像ChatGPT这样的语言模型,它能写诗,能编程,能和你聊哲学,有时候甚至让你觉得,屏幕那头是不是坐着一个活生生的人。更有意思的是,不少名叫“史蒂芬”(Stephen/Steven)的杰出思想家——比如史蒂芬·沃尔弗拉姆(Stephen Wolfram)、史蒂芬·平克(Steven Pinker)——都对此发表过深刻的见解。他们的思考,就像几束来自不同方向的光,共同照亮了ChatGPT这个复杂而又迷人的存在。今天,我们就来聊聊这些“史蒂芬”们怎么看ChatGPT,以及这场对话背后,关于语言、创造乃至人类自身的那些事儿。
如果要找一个最执着于从原理上“拆解”ChatGPT的人,那恐怕非计算机科学家、物理学家史蒂芬·沃尔弗拉姆莫属。他写了一本《这就是ChatGPT》,试图用相对通俗的方式,揭开这个大语言模型的神秘面纱。
他的核心观点其实挺有意思。他说,ChatGPT本质上在做一件看似简单的事:寻找“合理的延续”。比如,你给了它一段话“人工智能最棒的地方在于它的……”,它就会去扫描(当然,是在训练阶段已经扫描过的)互联网上浩如烟海的文本,看看人类在写过这句话之后,最常接的是什么词。是“能力”?“潜力”?还是“学习速度”?它通过一个极其复杂的神经网络,计算出每一个可能出现的“下一个词”的概率。
但这还不是全部。沃尔弗拉姆指出,如果ChatGPT每次都只是选择概率最高的那个词,那它生成的文章就会变得枯燥、重复,缺乏生气。这就像一个人说话永远只用最常用的词,听起来会很无聊。所以,工程师们引入了一个叫“温度”的参数。这个参数允许模型有一定概率去选择那些不是最高、但仍有合理性的词。这就好比在写作中加入了随机性和不可预测性,让文本有了“创意”的火花。沃尔弗拉姆打了个比方,这有点像统计物理学里的概念,虽然可能并没有直接的物理联系,但用起来效果却出奇地好。
他的分析让我觉得,ChatGPT的成功,某种程度上揭示了我们人类语言中隐藏的、惊人的规律性。我们说的话,写的文章,并不是完全天马行空、无迹可寻的。相反,在庞大的数据背后,存在着某种结构,某种“语义语法”。ChatGPT通过数十亿的参数,无意中捕捉到了这种结构。这或许能解释,为什么有时候它写出来的东西,会让我们觉得“嗯,这确实像人写的”。
为了更直观地理解沃尔弗拉姆描述的核心机制,我们可以看看下面这个简化示意表:
| 核心概念 | 沃尔弗拉姆的解读 | 类比与启示 |
|---|---|---|
| :--- | :--- | :--- |
| 核心任务 | 文本的“合理延续” | 像一个超级的、统计意义上的“接龙大师”,总是基于上文猜测下文。 |
| 关键机制 | 概率预测与“温度”采样 | 不仅选“最可能”的词,还允许随机挑选“较可能”的词,避免文本死板。这类似于人类创作中的“灵光一现”或“另辟蹊径”。 |
| 底层发现 | 语言的隐含结构(“语义语法”) | 表明人类语言看似自由,实则受深层统计规律支配。AI无意中成了探索这种规律的强大工具。 |
| 能力边界 | 基于统计的模仿,而非真正的理解与计算 | 它能生成“听起来正确”的话,但不保证事实正确或逻辑严密。需要外部工具(如计算引擎)来弥补。 |
哈佛大学的心理学家史蒂芬·平克,以研究语言与人性著称。他对ChatGPT的评价,则混合了赞叹与冷静的审视。
平克承认ChatGPT是“真正令人印象深刻的”。它展现出的语言流畅性和知识广度,确实让人眼前一亮。在他看来,这类工具在教育、内容辅助等领域大有可为。但平克也敏锐地指出了它的一个致命软肋:它有时会“编造东西”。在AI领域,这被称为“幻觉”。也就是说,ChatGPT可以非常自信地生成一段逻辑通顺、引经据典的文字,但里面的“事实”却可能是完全虚构的。
平克的这个观察太关键了。这恰恰说明了ChatGPT的工作机制和人类思维的本质区别。它是在模仿语言的形式和关联,而不是在理解和验证事实。它不知道对错,只知道“像不像”。这就引出了一个更深层的问题:当我们用“智能”这个词来形容它时,我们到底在指什么?平克认为,或许ChatGPT的局限与成功,恰恰能帮助我们更好地理解人类智能的独特之处——比如我们对真理的追求、对逻辑一致性的坚守,以及那份基于真实世界经验的“常识”。
音乐家尼克·凯夫(Nick Cave)曾表达过一种强烈的担忧,他认为ChatGPT“拒绝承认创造性挣扎的价值”,而这种挣扎正是赋予我们生活深度和意义的东西。在他看来,AI的轻松生成,是对人类精神、对我们通过努力而连接彼此的“集体无意识”的一种否定。
这个观点,带着强烈的艺术家的人文关怀。确实,如果一切优美的文字、深刻的思考都能被瞬间生成,那“创作”本身的神圣性是否会褪色?然而,评论家斯蒂芬·唐斯(Stephen Downes)对此提出了不同的看法。他用自己骑行的经历作比:即便有了更省力的电动自行车,人们依然会选择艰苦的越野骑行,因为“做困难的事”本身就有价值。唐斯认为,AI不会改变我们是谁,它只是可能撼动了一些我们关于自身在宇宙中独特地位的“长久珍视的神话”。换句话说,AI可能会让我们更清晰地看到,人类的特殊之处并不在于我们能做某些AI也能做的事,而在于我们选择去做什么,以及我们为何而挣扎。
这场争论没有标准答案,但它触及了AI时代人类自我定位的核心。ChatGPT或许能写出漂亮的句子,但它无法体验创作过程中的痛苦、狂喜与顿悟。那份“挣扎”,或许才是人类创造力不可替代的灵魂。
梳理这几位“史蒂芬”的观点,我们仿佛看到了一幅多维的图景:
那么,我们能得出什么结论呢?我想有这么几点:
第一,AI是面镜子,照出我们自身的规律与局限。ChatGPT的强大,反衬出人类语言和思维中可被建模、可被预测的部分。而它的“幻觉”和缺乏真正理解,又凸显了人类认知中基于体验、情感和世界模型的复杂部分。
第二,工具始终是工具,关键在于我们如何使用。就像唐斯说的,有了电助力自行车,我们依然可以选择去爬山。ChatGPT可以成为我们强大的辅助,帮助克服写作障碍、快速梳理信息、激发灵感。但最终的思考、判断、价值赋予和真情实感的注入,必须由人来完成。把它当作一个无所不知的“神谕”是危险的,但把它当作一个强大的“思考伙伴”或“初稿生成器”,则可能极大地拓展我们的能力边界。
第三,关于创造,人类的“旅程”或许比“成品”更重要。凯夫的担忧提醒我们,如果只追求最终那个“像模像样”的文本,我们可能会失去创作过程中那些笨拙的尝试、痛苦的摸索和突破的惊喜。这些体验本身,就是意义所在。AI无法剥夺这一点,除非我们主动放弃。
最后,让我们回到开头的问题。ChatGPT是什么?通过这些“史蒂芬”的眼睛,我们看到它既是一个复杂而精巧的统计模型,一个仍有缺陷但潜力巨大的工具,也是一个引发深刻哲学与伦理思考的催化剂。它不会取代人类,但它正在迫使人类重新思考:什么是语言?什么是智能?什么又是独属于我们的、不可替代的创造?
这场与AI的共舞才刚刚开始。保持好奇,保持审慎,或许是我们最好的姿态。毕竟,无论技术如何演进,提出问题、感受世界、在挣扎中寻找意义,这些始终是人性中最闪亮的部分。
