最近,如果你发现自己的ChatGPT好像“变笨了”,回答问题变得小心翼翼,甚至有点“爹味”十足地规劝你,别急着怀疑自己的提示词功力退步了。这很可能不是你的错觉,而是你的账号,正经历一场由AI发起的“年龄审判”。
没错,OpenAI正在全球范围内逐步上线一项名为“年龄预测”的机制。这事儿吧,说起来挺有意思。AI,一个由我们人类创造的工具,现在反过来要判断它的创造者——或者说使用者——是否“成年”了。这感觉,就像你养大的孩子突然要检查你的身份证。
ChatGPT是怎么“猜”你年龄的呢?它不会直接问你“贵庚”。相反,它像一个沉默的观察者,分析着各种信号:你的对话主题偏好、活跃时间(比如是不是总在深夜提问)、账号的“历史行为模式”,甚至是你无意中透露的信息碎片。然后,它的预测模型会综合这些数据,给出一个概率判断:“这位用户,很可能未满18岁。”
一旦被贴上这个标签,你的ChatGPT体验就会自动切换到一个“青少年保护模式”。这个模式的核心,是增加一层内容过滤的防护网。一些涉及暴力、血腥、自残、危险行为,或者包含性暗示、浪漫情节的角色扮演内容,会被更谨慎地处理或直接拒绝。连讨论极端审美标准、不健康饮食的内容,也会被系统“重点关照”。
有网友调侃,这种感觉就像被系统“临时降智”了。原本能深入探讨的哲学思辨、社会议题,AI的回答可能变得浮于表面,语气也像是特意调整成了对中学生说话的模式——安全、正确,但少了点深度和锐气。这背后,其实是OpenAI在《青少年安全蓝图》和《18岁以下人士模型行为准则》中强调的理念:在安全与自由之间,为青少年优先选择安全。
那么,成年人呢?难道要一直被“保护”着用“青少年版”吗?当然不是。OpenAI的另一只靴子也落地了:为通过验证的成年用户,有条件地开放更宽松的内容生成权限,也就是外界所称的“成人模式”(Naughty Chat)。
这个模式并非鼓励生成不良内容,而是基于一个原则:“把成年人当成年对待”。它允许用户在主动、明确请求的前提下,让ChatGPT使用更成熟、大胆的语言风格,甚至探讨一些在严格保护模式下会被回避的成人话题(例如,在法律、医学、文学创作等特定语境下涉及的敏感内容)。用OpenAI CEO山姆·奥尔特曼的话说,“除非你请求,否则你不会得到它。”
但想要获得这份“数字成年礼”,你得先证明自己。这就引出了当前最核心,也最富争议的一环:年龄验证。
目前,OpenAI将这项关键的验证工作,委托给了第三方服务商Persona。流程大致是这样的:
| 验证步骤 | 具体操作 | 目的与说明 |
|---|---|---|
| :--- | :--- | :--- |
| 1.触发与入口 | 当系统预测你可能未成年,或在设置中主动选择验证。 | 通常在账户设置中会出现年龄验证的提示。 |
| 2.首选方式:实时自拍 | 通过手机或电脑摄像头,按照指引拍摄实时面部照片并完成一些转头动作。 | 利用生物识别技术预测年龄,过程便捷,注重隐私。 |
| 3.备选方式:政府ID | 上传驾驶证、护照等政府签发身份证件的照片。 | 当自拍验证失败或无法进行时启用,验证准确度最高。 |
| 4.信息处理 | Persona核对信息(如自拍与ID照片匹配度、出生日期),完成后数小时内删除原始数据。 | OpenAI强调,他们永远不会收到你的自拍照或身份证件,仅获取验证结果(如“已满18岁”)。 |
| 5.生效 | 验证通过后,保护措施被移除,“成人模式”选项可能开放。 | 变更可能需要一些时间才能在全平台生效。 |
这个流程设计,体现了OpenAI在隐私与合规间的走钢丝。把最敏感的生物识别信息交给第三方处理并快速销毁,自己只保留结论,是一种风险切割。但这也把信任的压力转移给了用户:你愿意为了更“自由”的AI对话,而向一个陌生的第三方公司“刷脸”或上传身份证吗?
OpenAI此举,绝非一时兴起。仔细想想,这几乎是它发展到今天这个体量的必然选择。
当ChatGPT的用户逼近十亿级别,它就不再仅仅是一个“酷工具”,而成为了某种意义上的数字公共基础设施。只要是基础设施,就必须面对三件大事:分层体验、风险前置、监管对齐。其中,未成年人保护,是全球任何市场都绕不过去的监管红线。欧盟的《数字服务法》(DSA)等法规,对此有极其严格的要求。
所以,这不是OpenAI“管得太多”,而是它必须向现实规则妥协,甚至主动拥抱监管,以换取更广阔的生存和发展空间。从“一刀切”的严格过滤,转向基于年龄的“条件式开放”,是一次重要的策略调整。
但问题也随之而来。首先,“预测”而非“确认”的机制,必然导致误伤。一个喜欢在深夜探讨存在主义哲学的大学生,和一个热衷于编写奇幻冒险故事的中年人,都可能因为行为模式“像青少年”而被系统误判。这种“被降智”的体验,无疑会挫伤核心用户的热情。
其次,年龄验证的可靠性与公平性存疑。目前的在线验证技术远非完美,可能存在漏洞。更关键的是,它无形中竖起了一道“数字门槛”。没有或不愿使用特定ID(如护照)的人、对隐私极度敏感的人,可能就被挡在了“完整体验”之外。这引发了关于数字权利平等的讨论。
再者,“成人内容”的边界本身极其模糊。文学描写与色情露骨,学术讨论与危险指导,有时仅一线之隔。AI能否精准理解语境和意图?开放的口子会不会被滥用,用于生成仇恨言论、犯罪指南或深度伪造内容?这些都是悬而未决的伦理与技术难题。
ChatGPT的这场“成年”风波,像一面镜子,映照出AI融入社会深水区后必须面对的复杂图景。
一方面,我们期待AI强大、智能、无所不能,能像知心朋友一样与我们畅所欲言。另一方面,当它真的试图理解我们的年龄、身份和意图,并提供“定制化”服务(或者说限制)时,我们又感到一种被窥视、被定义的不适。这种矛盾,正是技术便利性与人性自主权之间永恒张力的体现。
从更宏观的视角看,ChatGPT的年龄策略,只是生成式AI治理大潮中的一朵浪花。它标志着AI的发展重点,正从追求纯粹的“能力突破”,转向更艰难的“责任落地”。如何设计一套既保护脆弱群体(如青少年),又尊重成年人自由,同时能被全球不同文化法律环境所接受的规则,是所有AI巨头面临的共同考题。
对于我们每个用户而言,这可能意味着要开始习惯一个“会判断”的AI伙伴。它不再是一个纯粹被动应答的工具,而是一个被赋予了初步社会规则和伦理判断能力的复杂系统。与它的互动,将更多地变成一种“协商”——你需要证明自己,表达意图,甚至在某些规则下争取权益。
总之,ChatGPT的“成年”之路,也是我们整个社会学习如何与高级AI共存的“成年礼”。这条路注定充满磕绊、争议和反复调试。但无论如何,对话已经开启。下一次,当ChatGPT让你验证年龄时,你可能需要想一想:在这个越来越智能的数字世界里,你准备好如何定义自己,以及,你希望被如何定义了吗?
