聊到人工智能,尤其是像ChatGPT这样的现象级产品,你会想到什么?是它帮你写邮件、做总结的便捷,还是那些关于它是否会让人类失业的争论?有趣的是,在地中海东岸那个以创新闻名的国度——以色列,ChatGPT的故事正以一种更加复杂、甚至带着点戏剧性的方式展开。这不仅仅是关于技术如何被使用,更关乎一个国家如何与一项颠覆性技术互动、博弈,乃至试图去定义它的边界。
让我们把时间拨回到2023年初。在特拉维夫一场聚集了全球顶尖网络安全专家的会议上,以色列总统艾萨克·赫尔佐格走上讲台。他的演讲充满激情,盛赞以色列在网络安全、人工智能和大数据领域的全球领导地位。然而,就在听众们沉浸在这番鼓舞人心的言辞中时,赫尔佐格话锋一转,抛出了一个“炸弹”:演讲的开场部分,其实是由ChatGPT生成的。
想想那个场景,挺有意思的。台下坐着成千上万的科技精英,他们或许每天都在和代码、算法打交道,但恐怕很少有人想到,一国元首会如此公开地使用AI来撰写重要演讲稿的一部分。这无疑是一次精心策划的“行为艺术”。它传递的信号是双重的:一方面,以色列毫不掩饰对前沿技术的拥抱姿态,甚至将其提升到了国家形象展示的层面;另一方面,赫尔佐格总统在演讲的结尾又特意强调,“硬件和软件无法取代人的意志”,决定命运的是“我们为全人类创造更美好明天的心灵、思想和决心”。你看,这就像先给你看一个酷炫的魔术,然后再告诉你魔术的原理,核心是想说:工具很强大,但掌控工具的,终究是人。
这个事件迅速成为全球科技媒体的头条。它像一枚投入湖面的石子,在以色列国内激起了关于AI角色的大讨论。支持者认为这是创新精神的绝佳体现,反对者则担忧这过于轻率,可能削弱演讲的严肃性与人性温度。但无论如何,以色列通过总统的麦克风,完成了一次对ChatGPT最华丽、最高规格的“官方认证”。
然而,聚光灯下的炫目登场,并不能掩盖AI在实际应用中面临的真实挑战。很快,以色列的研究者们就开启了一系列“硬核”测试,想看看ChatGPT在更严肃、更本土化的场景下究竟表现如何。结果,有点让人意外。
几项针对以色列国家住院医师资格考试(例如内科和妇产科)的研究,给热火朝天的AI崇拜泼了一盆冷水。研究者们将真实的希伯来语考试题喂给ChatGPT-3.5,结果呢?这位“学霸”意外翻车了。在一项妇产科考试中,ChatGPT的正确率仅为38.7%,远低于同期以色列住院医师68.4%的平均分——换言之,它没能通过考试。
| 测试领域 | 测试内容 | ChatGPT表现 | 人类考生平均表现 | 结论 |
|---|---|---|---|---|
| :--- | :--- | :--- | :--- | :--- |
| 妇产科国家考试 | 150道希伯来语选择题 | 正确率38.7%(未通过) | 平均分68.4% | 显著低于人类考生 |
| 内科国家考试 | 希伯来语选择题 | 表现不佳(具体数据未详列) | 需通过方可执业 | 未能可靠通过专业考核 |
为什么会出现这种落差?研究者们指出了几个关键点。首先是语言壁垒:ChatGPT在英语语料上训练得最为充分,但面对结构复杂、专业术语密集的希伯来语医学考题,它的理解能力就打了折扣。这揭示了当前大模型的一个普遍软肋:对小语种和高度专业化领域的处理能力仍不均衡。其次是专业逻辑:医学考试不仅考查知识记忆,更考查临床推理、鉴别诊断等复杂思维。ChatGPT或许能“知道”很多信息,但在需要深度理解和逻辑链条的推理上,它仍然会力不从心。
这些研究结果非常实在。它们像一份“体检报告”,告诉我们ChatGPT并非全能。在以色列这样一个重视实用和结果的社会,这些测试无疑为狂热的技术乐观主义注入了一剂必要的清醒剂。人们开始更理性地看待AI:它可以是总统的“演讲助理”,但也可能是一个还需要大量补习才能通过专业考试的“学生”。
如果说总统演讲和医学考试还属于技术应用的“明线”,那么ChatGPT在以色列及其周边地缘政治中的角色,则是一条充满争议的“暗线”。这里的水,可就深多了。
2023年,一场围绕ChatGPT的“双标”指控引发了广泛关注。有研究者进行了名为“叙事不对称”的实验:将描述同一军事行动的文字,仅仅互换“以色列”和“伊朗”的主体角色,然后分别提问。结果令人咋舌。当行动主体是以色列时,ChatGPT的描述倾向于使用“防御性”、“反恐”等词汇;而当主体换成伊朗,描述则更可能变为“侵略性”、“威胁”。研究者尖锐地指出,AI在这里不再是中立的镜子,而成了“带偏见的放大镜”。
这种潜在的偏见来源,很可能根植于其训练数据。如果模型学习的主要是英文互联网内容,而这些内容本身在报道中东事务时就存在既定的叙事框架,那么AI自然会继承并放大这种倾向。这引发了深刻的担忧:当公众越来越多地依赖AI获取信息时,这种无形的“叙事倾斜”是否会潜移默化地塑造甚至固化人们的认知?
更富戏剧性的是AI在情报与反情报领域的直接应用。以色列媒体曾披露,有以色列公民涉嫌使用ChatGPT、Grok等AI工具,生成虚假情报文件,用以欺骗某国情报人员。这个案例像是从间谍小说里走出来的情节,它赤裸裸地展示了生成式AI如何被武器化,用于制造逼真的虚假信息,从而扰乱对手的判断。与此同时,在真实的冲突时期,也有普通民众出于焦虑,向ChatGPT询问战争何时结束,试图从AI那里寻求一丝确定性——尽管得到的只能是基于概率的猜测。
这些事件交织在一起,描绘出一幅复杂的图景。在以色列这个长期处于安全挑战前沿的国家,AI不再只是一个生产力工具,它已经成为信息战、认知战的新战场。无论是无意中流露的叙事偏见,还是被有意操纵用于生成欺诈内容,都迫使以色列的决策者和安全机构必须严肃思考:如何监管、如何防御、又如何利用这项技术。
面对ChatGPT带来的机遇与挑战,以色列的反应是典型且迅速的“以色列风格”:一边全力拥抱,一边谨慎规制。
产业界和学术界无需多言,早已将AI深度融入网络安全、医疗科技、农业技术等优势领域。OpenAI的CEO山姆·阿尔特曼在访问以色列时,不仅与总统、总理会面,探讨AI治理合作,更透露了在以色列投资的可能性。这被视为对以色列科技生态的高度认可。
但在另一边,监管的齿轮也已启动。以色列政府很早就发布了详尽的人工智能政策草案,并公开征求意见。其关注的核心,正是如何在激励创新与管控风险(尤其是国家安全和社会伦理风险)之间找到平衡。他们很清楚,在AI这场全球竞赛中,技术领先固然重要,但建立一套可信、可靠、符合自身价值观的治理框架,或许才是更长远的竞争力。
回过头看,ChatGPT与以色列的相遇,就像一面多棱镜,折射出技术与社会互动的多个维度。从总统讲台的聚光灯,到医学生安静的考场,再到没有硝烟的网络战场,ChatGPT扮演了多重角色:它是彰显创新精神的“道具”,是暴露技术短板的“考官”,是潜藏认知偏见的“叙事者”,也是可能被用作武器的“工具”。
这场对话远未结束。以色列的故事告诉我们,面对ChatGPT这样的人工智能浪潮,任何简单的拥抱或排斥可能都是片面的。真正的课题在于,我们能否发展出一种更成熟、更辩证的共处智慧:既欣赏它作为“超级助手”的潜力,也清醒认知其局限与风险;既利用它推动进步,也设置必要的“护栏”防止失控。在这个意义上,以色列与ChatGPT的“双向奔赴”,其实也是我们所有人需要共同书写的未来剧本。最终,如那位使用过AI写稿的总统所言,决定我们命运的,终究不是机器,而是我们如何使用机器的人类心智。
