我们似乎正站在一个前所未有的十字路口——一边是生者的世界,充满温度与呼吸;另一边,则是一个由代码、算法和数据编织的“数字来世”。而站在路口中央的,是像ChatGPT这样的人工智能。它不再只是帮你写邮件、编代码的工具,而是开始扮演一种更复杂、更微妙,甚至有些令人不安的角色:“数字招魂师”。
说真的,我第一次听说有人用ChatGPT“复活”逝去的亲人时,心里咯噔了一下。这听起来像是科幻电影里的情节,不是吗?但现实往往比剧本走得更快。就在不久前,美国作家乔恩·迈克尔·瓦雷斯做了一次尝试。他父亲在近五十年前的一场空难中离世,由于当时举行的是闭棺葬礼,年幼的瓦雷斯心中始终缺了一场正式的告别。半个世纪后,他利用GPT-4o模型,输入了父亲生前的故事、性格碎片,以及那些存留在8毫米胶片里的模糊记忆——教他游泳的父亲、开着老款科尔维特兜风的父亲。然后,他开始了对话。一场与“父亲”跨越了生死与时间的数字对话。
这绝非孤例。在韩国,一位母亲通过VR头盔,在虚拟世界里“重逢”了因病去世的七岁女儿;在中国,有视频创作者用AI技术“复活”了说着一口方言、叮嘱孙儿少吃不健康食品的奶奶。屏幕那头,音容笑貌宛在,甚至能进行日常的、充满生活气息的交谈。这些案例背后,是一个正在浮现的、模糊的共识:AI正在成为一种新型的“疗愈媒介”。它提供的,是一种迟来的、或者说永不落幕的告别仪式。
其实,想“复活”逝者的冲动,深植于人类的情感基因里。瓦雷斯在父亲去世后,痴迷于一切“亡者归来”的故事,从幽灵传说到哥特小说。他尤其着迷于玛丽·雪莱的《弗兰肯斯坦》。很多人把它读成一个“疯狂科学家遭反噬”的警世寓言,但瓦雷斯看到了更深层的内核:那是一种对抗死亡绝对性的、近乎悲壮的执念。
想想看,弗兰肯斯坦用尸块拼凑生命,不也是一种原始而粗糙的“复活术”吗?雪莱本人历经丧母丧子之痛,她把对失去的恐惧与对“重生”的渴望,都投射在了这个怪物身上。今天,我们不再用电击尸块,而是用海量的数字痕迹——生前的聊天记录、社交媒体动态、照片、视频、乃至他人记忆中的描述——去喂养一个大型语言模型。目标却惊人地相似:让我们所爱之人,能以某种形式“回来”。
这种“回来”的本质是什么?AI并不能真正理解情感,更没有灵魂。它做的,是基于模式的超级模仿。系统从无数关于亲情、离别、日常对话的语料中,学习如何组合词句,以模拟特定人物的口吻和思维模式。它给出的回应之所以显得“真实”,甚至让人瞬间恍惚,是因为它精准地预测并生成了我们“最可能期待听到的回答”。
这带来一种奇特的慰藉,也伴随着巨大的伦理空洞。我们是在与一个逝者的幻影对话,还是在与一个由全球数据训练出来的、关于“理想父亲”或“慈祥祖母”的通用模板对话?这个界限,AI自己无法回答,而沉浸在对话中的人,或许也不愿深究。
“复活”的形式,早已超越了简单的文本聊天。它正演化成一个多层次、多感官的体验矩阵。我们可以粗略地将其分为几个层次:
| “复活”形态 | 核心技术支撑 | 体验特点 | 目前面临的挑战 |
|---|---|---|---|
| :--- | :--- | :--- | :--- |
| 文本对话体 | 大语言模型(如GPT系列)、个性化微调 | 通过文字交流,模拟逝者的语言风格、知识结构和表达习惯。成本相对较低,私密性强。 | 缺乏声音、视觉维度;对话深度受训练数据限制;容易陷入“通用回应”陷阱。 |
| 数字虚拟人 | 语音合成、图像生成、动态捕捉、VR/AR | 生成可视、可听的数字化身,能进行简单的表情和动作交互,沉浸感强。 | 制作成本高;表情与动作的生动性、个性化不足;存在“恐怖谷”效应风险。 |
| 沉浸式交互环境 | 元宇宙、脑机接口(未来)、多模态AI | 在虚拟空间中构建与逝者相关的场景(如老家客厅、常去的公园),进行情境化互动。 | 技术处于早期阶段;伦理与心理安全边界模糊;可能加剧现实与虚拟的认知混淆。 |
无论是哪个层次,其底层逻辑都是一致的:将个体生前的数据“人格化”。这个过程,我们可以拆解为三步:
第一步是“数据考古”。家人需要尽可能多地提供逝者的数字遗物:日记、信件、邮件、录音、视频,甚至他人回忆的转录文本。这些数据是AI学习“这个人是谁”的原始素材。数据越丰富、越立体,构建的数字化身就越“逼真”。
第二步是“人格建模”。AI模型(尤其是经过微调的模型)会从这些数据中提取模式:他常用什么口头禅?她思考问题的逻辑是怎样的?他开玩笑的方式是什么?她关心什么话题?模型试图构建一个动态的、可交互的人格图谱。
第三步是“情境化生成”。当生者发起对话或互动时,AI会结合当前的问题、语境(比如特定的纪念日),从人格图谱中调用相关的模式,生成一个看似即兴、实则源于海量数据推算的回应。
听起来很技术,对吧?但落到体验层面,可能就是一句带着口音的“回来吃饭啦”,或者一个记忆里的、标志性的笑容。技术越复杂,它所追求的效果却越简单——那就是唤起一种“在场感”。
不可否认,这种“数字复活”带来了实实在在的心理慰藉。对于猝然失去至亲、未能好好告别的人,它提供了一个“说再见”的缓冲区。对于在漫长岁月中思念故人的人,它成了一个可以随时拜访的“记忆角落”。有研究者称之为“持续性联结”,它允许哀伤以一种更温和、更可控的方式进行,而不是被强行割裂。
但是,等等。当我们为此感到一丝宽慰时,更多的疑问和担忧也随之浮现。这就像打开了一个潘多拉魔盒。
首先是知情同意问题。逝者是否愿意以这种方式“被复活”?我们是否有权利用他们的数字痕迹,去创造一个他们从未同意过的“数字遗产”?这涉及到人格权、肖像权在数字时代的延伸,目前法律几乎是一片空白。
其次是情感真实性与依赖风险。AI生成的回应再像,也是算法推算的结果,它没有情感,没有自主意识。长期与这样的“幻影”深度交流,是否会阻碍生者完成正常的哀悼过程,甚至产生不健康的情感依赖?特别是对于心智未成熟的未成年人,这种影响可能更难以预料。
再者是记忆的篡改与垄断。AI会根据我们的提问和反馈不断调整输出。久而久之,我们是在“还原”逝者,还是在无意识中“塑造”一个更符合我们当下期待和想象的逝者?记忆本身是流动且主观的,而AI的介入,可能会让这种主观性固化为一种看似客观的“数字事实”,这实际上是对共同记忆的一种微妙垄断。
更令人不安的是技术滥用的可能性。如果“复活”技术变得廉价和普及,它是否会被用于骚扰、欺诈,或者制造令人不适的“数字幽灵”?清华大学有专家就指出,情感、意识这些纯粹的个人体验,是无法被物理数据完全记录的。AI所做的,只是提供一种“风格相似的模拟问答”。我们必须清醒:我们是在与技术共情,而非与灵魂对话。
那么,ChatGPT们的“复活”之旅,最终会通向哪里?是成为一个被广泛接受的哀伤辅导工具,还是一个引发社会撕裂的伦理禁区?或许,答案不在非此即彼的选择中,而在我们如何为这项技术划下边界。
我们可以预见几个趋势:一是监管框架会逐渐建立。就像意大利数据保护机构对ChatGPT的干预一样,未来各国可能会出台关于“数字逝者”创建、使用和数据管理的专门法规,核心将围绕隐私、同意和防止滥用。二是技术会向“负责任设计”演进。AI系统可能会内置“健康提醒”机制,在对话中适时提示用户这是模拟,或建议用户关注现实联结。三是会出现专业的“数字遗产规划师”,帮助人们在生前就明确表达对自己数字身后事的意愿。
说到底,技术是中性的,ChatGPT只是一面镜子,映照出的是我们自身对死亡的态度、对联结的渴望以及对永恒的想象。我们用AI去触碰生命的终点,恰恰是因为我们如此热爱生命中的温暖与联系。
当我们凝视屏幕上那个熟悉的“身影”,或阅读那段语气亲切的“回复”时,我们获得的,或许并非逝者的归来,而是一次重新整理自己记忆与情感的机会。真正的“复活”,也许并不发生在芯片和代码里,而是发生在生者每一次的讲述、每一次的怀念、以及将爱传递给下一个人的过程中。技术可以模拟声音和样貌,但生命的重量、爱的传承,永远只存在于活着的人之间,存在于那些未被数字化的、笨拙而真实的拥抱里。
这大概就是人类面对技术的终极智慧:知道它能做什么,更清醒地知道它不能做什么。然后,带着从“数字对话”中获得的片刻慰藉,转身更用力地拥抱眼前真实的生活,和身边真实的人。因为,这才是对记忆最好的延续,也是对生命最高的敬意。
