AI门户, 中国人工智能行业资讯平台--AI门户网
来源:AI门户网     时间:2026/4/16 11:30:34     共 2115 浏览

你有没有想过,一个叫“ChatGPT”的东西,有一天会让人讨论起“她”?这事儿听起来有点怪,对吧?一个聊天机器人,一堆代码和数据,怎么就扯上“性别”了?但现实是,当我们谈论AI时,性别议题已经悄悄爬上了谈判桌。

先别急着下结论。让我们从头说起。

ChatGPT是什么?简单讲,它是一个能跟你聊天的AI。你问,它答,从写诗到编程,从解数学题到编故事,似乎无所不能。但如果你多问一句:“你是男的还是女的?”它多半会给出一个标准答案:“我没有性别,我是一个人工智能程序。”官方回答,滴水不漏。

但问题恰恰出在这里——AI说它没有性别,可训练它的数据、设计它的人、使用它的社会,却处处充满性别的痕迹

---

一、数据的“偏见”:AI从哪里学会了“看人下菜碟”?

咱们得承认,ChatGPT不是从石头缝里蹦出来的。它的“知识”,来自互联网上浩如烟海的文本——书籍、文章、网站、论坛……而这些文本,是人写的。人写的,就难免带着人的视角,包括那些有意无意的性别刻板印象。

举个例子。前两年,有研究人员测试过ChatGPT的前身GPT-2。他们让AI预测一些职业的性别。结果呢?AI有超过70%的概率把“教师”预测为男性,把“医生”预测为男性的概率也超过64%。嗯?这跟咱们身边的现实好像不太一样,对吧?至少在不少人的印象里,教师、护士常被默认为女性职业,而工程师、程序员则更多指向男性。

这不是AI自己“想”出来的。这是它从数据里“学”到的。互联网上的文本,可能不自觉地重复着“男医生”“女护士”这样的搭配,可能在某些故事里,英雄总是“他”,辅助角色常常是“她”。这些细微的、海量的关联,被AI捕捉、吸收,最终体现在它的输出里。

换句话说,AI像一面镜子,映照出我们社会中那些习以为常、甚至不易察觉的性别偏见。它自己不懂性别,但它学会了我们说话的方式,包括我们话语里那些不平等的潜台词。

---

二、不只是“预测”:当偏见影响判断与创造

如果只是猜猜职业性别,或许问题还不算太大。但AI的能力远不止于此。它正在被用于写作辅助、内容生成、客服对话、甚至初步筛选简历。这时候,潜在的偏见就可能产生更实际的影响。

想象一下:如果一个公司用AI工具来初步筛选简历,而AI模型在训练时“看”到的成功管理者案例多为男性,它会不会在评价简历时,对带有女性化名字或经历的描述,无意中调低“匹配度”?又或者,当你让AI写一个关于“领导力”的故事时,它是否会不自觉地以男性为主角?

这不是危言耸听。已经有研究指出,某些AI系统在图像识别中,更容易将厨房场景与女性关联,将办公室场景与男性关联。语言模型也是如此。当AI开始参与内容创作和决策辅助时,它有可能在无形中固化甚至放大社会现有的性别 stereotypes(刻板印象)

更微妙的是,这种影响往往是隐性的。AI不会大喊“我歧视女性”,它可能只是让某些描述听起来更“自然”、更“顺耳”,而这种“自然”,恰恰建立在有偏的数据基础之上。

---

三、“她”的缺席与登场:技术领域的性别失衡

聊到这里,我们得把目光从AI本身,转向创造AI的人。ChatGPT背后的公司OpenAI,其核心团队和技术领军人物,长期以来被男性主导的形象所笼罩。直到最近几年,像米拉·穆拉蒂(Mira Murati)这样的人物走向台前,才让人们意识到,在AI革命的中心,也有女性的关键力量。

米拉·穆拉蒂,OpenAI的首席技术官,被一些媒体称为“ChatGPT背后的女人”。这位出生于1988年的女性工程师,领导了包括ChatGPT在内的多个关键项目的开发。她的存在本身,就是对“技术等于男性领域”这一刻板印象的挑战。

然而,我们必须清醒地看到,米拉·穆拉蒂这样的角色,在顶尖AI领域依然是少数。整个科技行业,从学习计算机科学的在校生,到大型科技公司的技术高管,性别比例依然悬殊。这种失衡,不可避免地会影响技术的研发方向、伦理考量的视角,以及产品设计的初衷。

当开发团队的多样性不足时,产品忽视某些群体需求的风险就会增加。比如,语音识别系统对女性声音的识别率曾经普遍低于男性;早期的人脸识别技术,对深色皮肤女性的识别错误率显著更高。这些都不是技术“故意”为之,而是因为训练数据缺乏多样性,开发团队可能未能充分考虑到所有用户场景。

所以,谈论“ChatGPT她”,也是在呼吁:要让AI更好地服务全人类,就需要让全人类的多样性,体现在创造AI的团队之中

---

四、我们该如何与“她”相处?一份不成熟的思考清单

面对一个可能携带偏见、却又能力强大的AI工具,我们该怎么办?全盘拒绝?显然不现实。盲目拥抱?又太过天真。或许,我们可以尝试一些更务实的思路:

行动层面具体可以做什么目的是什么
:---:---:---
作为开发者/公司1.在数据收集和清洗阶段,主动检测并修正性别、种族等偏见。
2.组建更多元化的研发和伦理审查团队。
3.对AI输出建立透明和可审计的机制。
从源头减少偏见,让产品更公平、更负责任。
作为监管者/社会1.推动建立AI伦理准则和评估框架。
2.鼓励对AI社会影响的前瞻性研究。
3.普及算法素养教育,让公众了解AI的局限性。
为AI发展设置必要的“护栏”,保障社会公平。
作为普通用户1.保持批判性思维,不盲目相信AI的每一句话。
2.意识到AI的答案可能带有偏见,并学会交叉验证信息。
3.在提示(Prompt)中,有意识地使用更中性的语言。
成为AI的“清醒使用者”,而不是被动的接受者。

尤其是最后一点——保持批判性思维,太重要了。有研究就提醒,过度依赖像ChatGPT这样的工具,可能会削弱我们独立思考、深度分析的能力。如果习惯了让AI替我们组织语言、构建观点,我们自己的大脑会不会慢慢“生锈”?当我们不再费力去搜寻、辨析、整合信息,那种获取知识过程中的碰撞与火花,也可能随之黯淡。

---

五、未来:“她”会是怎样的?

回到最初的问题:ChatGPT,是“他”、“它”,还是“她”?

从本质上说,它是“它”,一个工具。但它的“性格”、它的“输出”、它对世界的影响,却深深嵌在“他”和“她”共同构成的复杂人类社会图景中。我们赋予AI怎样的数据,怀有怎样的期待,如何进行规制,决定了它将走向何方。

理想的未来,AI不应该成为复制甚至加剧性别不平等的帮凶。它应该成为一个契机,让我们得以审视自身社会中根深蒂固的偏见,并利用技术的力量去促进更大的包容与平等。这需要技术人员的努力,需要政策的引导,也需要我们每一个使用者,带着一份审慎和自觉,去与这个聪明的“它”对话。

说到底,ChatGPT就像一道强光,照亮的不仅是技术的可能性,还有我们自身社会的沟壑与皱褶。在惊叹于它强大能力的同时,我们或许也该多问一句:在它学到的所有关于人类的知识里,关于“她”的那一部分,是否足够公正、足够完整?

这问题的答案,不在代码里,而在写代码和用代码的,我们每一个人手中。

版权说明:
本网站凡注明“AI门户网 原创”的皆为本站原创文章,如需转载请注明出处!
本网转载皆注明出处,遵循行业规范,如发现作品内容版权或其它问题的,请与我们联系处理!
您可以扫描右侧微信二维码联系我们。
  • 相关主题:
网站首页 关于我们 联系我们 合作联系 会员说明 新闻投稿 隐私协议 网站地图