“嘿,你知道吗?麻省理工学院(MIT)那帮家伙,最近又在用ChatGPT搞事情了。”这大概是我最近在科技圈听到最多的一句开场白。提起MIT和ChatGPT的组合,很多人可能第一时间想到的是那些高深莫测的AI前沿论文,但说实话,事情远比我们想象的要“接地气”得多。从帮数学家证明公式,到给日语专业的学生改作业,再到给实验室里的科学家当“语音助手”,MIT的研究者们正在把ChatGPT这把“瑞士军刀”打磨得越来越锋利,插向科研与教育最核心的领域。 这背后,既有令人兴奋的效率革命,也伴随着对人类自身认知习惯的深刻反思。今天,我们就来聊聊,MIT眼中的ChatGPT,到底是个怎样的“多面手”。
曾几何时,数学证明被认为是人类理性与逻辑思维的巅峰,严谨到不容一丝模糊。但MIT、加州理工等机构的学者们,偏偏想看看ChatGPT这类大语言模型(LLM)能不能在这个圣殿里留下脚印。他们构建了一个基于开源LLM的定理证明器,甚至还做了一个叫LeanDojo的ChatGPT插件。简单说,就是让ChatGPT能和名为“Lean”的交互式定理证明器对话,尝试把人类那种非正式的数学语言,转化成机器能验证的正式证明步骤。
他们试了三个公式:a+b+c=a+c+b(加法交换律和结合律的一个简单组合)、斯特林公式,还有高斯求和公式。结果很有意思。研究者发现,相比于那些专业的、为证明而生的AI模型(比如ReProver),ChatGPT展现了一种类似人类与助手协作的交互方式。它能把非正式的数学描述和正式的证明步骤交叉在一起,甚至还能“读懂”Lean系统返回的错误信息,并且通过提示词(Prompt)进行控制调整,显得比一些专业证明器更灵活。
不过,先别急着欢呼。研究也指出了ChatGPT的软肋:在搜索和规划证明路径方面,它仍然力有不逮。换句话说,它可能是个不错的“翻译”和“解释者”,能把你的想法用更规范的数学语言表述出来,或者帮你排查代码错误,但让它独立地从零开始探索一个复杂证明,目前还很难。 这就像给数学家配了一个反应极快、知识渊博,但缺乏宏观战略思维的助理。它能让一些繁琐的“体力活”变得轻松,但证明的核心洞察与创意,目前依然牢牢掌握在人类手中。
如果说在数学领域的尝试还带着点“炫技”和探索性质,那MIT将ChatGPT应用于教学,可就实实在在关乎成千上万学生的日常学习了。在MIT的“2024年学习节”上,教育专家们达成了一个重要共识:生成式AI(以ChatGPT为代表)应该被视作提升教学效率的辅助工具,而非一味排斥的洪水猛兽。更重要的是,他们认为善用这些工具,反而有助于培养学生的批判性思维。
MIT全球语言的日语高级讲师相川孝子(Takako Aikawa)分享了三个非常具体的案例:
1.词语扩写:学生学了新词,自己造句子数量有限。这时就让ChatGPT生成大量包含该新词的短句,学生通过阅读这些句子,能更快掌握词语的多样应用场景。
2.句子替换:比如,ChatGPT生成一句“我今天看了一场经典电影,心情非常喜悦。” 日语中表达“喜悦”的词有很多,如“嬉しい”、“楽しい”等。学生就被要求用这些近义词去替换原句中的词,从而扩大词汇量。
3.语法分析:学生先用所学语法造一个复杂句,再让ChatGPT生成结构类似的句子。通过深度对比,学生能学到同一语境下不同的语法结构表达。当然,ChatGPT有时会出错,而这恰恰成了训练学生批判性思维的绝佳机会——他们必须去判断、验证AI的输出是否正确。
你看,这里的ChatGPT不再是简单的“答题机器”,而是一个能提供海量对比样本和分析材料的互动平台。它的价值不在于给出“标准答案”,而在于创造了一个让学生可以主动观察、比较、质疑和修正的动态学习环境。
为了更清晰地展示MIT在教育领域对ChatGPT的应用思路,我们可以看下面这个表格:
| 应用场景 | 具体操作 | 培养的核心能力 | 关键点 |
|---|---|---|---|
| :--- | :--- | :--- | :--- |
| 语言学习(以日语为例) | 1.词语扩写(生成例句) 2.句子替换(近义词练习) 3.语法分析(对比生成句) | 词汇应用、语法理解、批判性思维 | 提供素材,引导对比与辨析,不盲信AI输出。 |
| 专业写作(如求职信) | 生成初稿或提供不同风格的版本供参考和修改。 | 结构化表达、风格适配、自我反思 | 作为构思起点和修改参照,强调个性化修改。 |
| 通用教学辅助 | 解答常见问题、提供学习资源线索、进行初步概念解释。 | 信息检索与甄别、自主学习 | 定位为“第一响应者”,复杂深度问题仍需教师介入。 |
想象一下,一个材料科学家站在实验室里,对着空气说:“帮我设计一种强度更高、但重量更轻的合金配方,并开始第一轮制备实验。”紧接着,机械臂开始自动运行,数据库被智能检索,算法在后台优化参数——这一幕像不像《钢铁侠》里的贾维斯?MIT李巨教授团队开发的CRESt(真实世界实验科学家的副驾驶),正在让这个场景成为现实。
CRESt的后端核心正是ChatGPT的API函数调用功能。它的强大之处在于:
*语音交互:科学家可以直接用说话的方式下达指令,无需编写任何代码。
*无缝整合:它能调用真实的自动化实验设备(如机械臂),自主查找专业材料数据库,并运行优化配方的主动学习算法。
这意味着,实验科学的门槛被极大地降低了。即使是一位不擅长编程的资深科学家,也能通过自然对话,指挥复杂的自动化实验平台完成从设计到执行的闭环。这不仅仅是节省时间,更是将科学家的智慧从重复性操作中解放出来,更专注于提出假设和解读结果这一创造性过程。
新药研发素有“双十定律”之说:耗时十年,耗资十亿美元。其中巨大的成本源于极高的失败率。MIT的Bonnie Berger教授团队思考的是:ChatGPT分析文本预测词汇的能力,能否用来分析蛋白质和药物分子的“语言”,预测它们能否结合?
他们开发了名为ConPLex的AI算法。它利用预先训练好的蛋白质语言模型,像ChatGPT理解单词序列一样理解氨基酸序列。然后通过对比学习,快速预测药物分子与目标蛋白质之间的相互作用,而无需进行极其耗时的分子结构计算模拟。
这项技术的意义在于,它能在早期大规模、低成本地筛选掉大量无效的候选药物分子,将宝贵的实验资源集中在最有希望的苗子上。正如研究者所说,如果能提前筛掉不太可能成功的选项,就能显著降低失败率,从而大幅压缩药物研发的时间和金钱成本。 这无疑是AI向生物医药这一硬核领域注入的一剂强心针。
然而,MIT对技术的思考永远是辩证的。在热情拥抱AI助力的同时,一项来自MIT的重磅实证研究却敲响了警钟。这项研究发现,使用ChatGPT等AI写作助手,可能导致一种称为“认知负债”的状态。
研究通过对比实验发现,使用AI辅助写作的学生,其文章在结构和语气上更统一,但思路重复性高,语言刻板,缺乏个人特色。更惊人的是访谈结果:超过80%的AI组学生在写作后无法准确回忆自己刚写下的内容,而独立写作的学生记忆效果要好得多。研究者认为,这是因为AI生成的内容并未在使用者大脑中形成深刻的记忆痕迹,文章像是“借来的”而非“写出来的”。
教师们的评价也印证了这一点,他们认为AI辅助的文章显得“套路化”和“空洞”。研究警告,这种过度依赖不仅可能削弱深度思考、分析论证的能力,还可能固化思维,让人更倾向于接受AI提供的框架而非质疑它,形成“思想外包”的习惯。 当然,研究也提到,那些先独立写作、再使用AI的学生,会表现出更多的“元认知行为”,即会更主动地对比、分析AI的输出,这反而可能促进学习。
所以,绕了一大圈,MIT通过其在数学、教育、实验科学、药物研发乃至认知科学领域的多元实践,给我们描绘了一幅ChatGPT应用的复杂图景。它可以是数学家手中的逻辑翻译器,是语言课堂里的素材生成器,是科学家的语音控制中枢,是制药行业的虚拟筛选员。它的能力边界正在被不断拓展。
但与此同时,MIT的研究者也清醒地指出,它也可能成为思维上的“拐杖”,在不经意间让我们某些重要的心智能力“生锈”。 关键在于我们如何使用它。是把它当作替代思考的“答案机”,还是作为拓展能力、激发灵感的“增强甲”?这恐怕是MIT所有案例背后,留给我们每个人的核心课题。技术的浪潮无可避免,而如何驾驭浪潮,而不被其吞没,永远考验着我们的智慧。正如MIT在教育实践中揭示的那样:让AI提供选项和素材,而把判断、批判和创造的核心,留给人自己。这或许才是人机协作最光明的未来。
