跳到主要内容

人工智能与性别偏见:当父权制被写进代码

“算法并不是客观的真理,它们只是披着数学外衣的、人类偏见的集合。”

在大众的普遍认知中,人工智能(AI)、算法和大数据是冰冷的、客观的、没有情感的,因此它们理应是“绝对中立”的。 然而,当代技术社会学与女性主义研究残酷地戳破了这一神话:技术从来都不是中立的。

AI 的训练数据来源于人类历史,而人类历史是一部充满了男性中心主义和性别歧视的历史。如果不加干预地将这些历史数据喂给机器,AI 不仅会复制现实中的父权制,还会以一种看似“科学”的权威方式,将其永久性地固化并放大。


核心议题 :代码里的性别政治

一、 默认的顺从:为什么语音助手都是女性?

环顾我们四周最普及的人工智能系统——苹果的 Siri、亚马逊的 Alexa、微软的 Cortana。在默认设置下,它们几乎无一例外地使用了温和、年轻的女性声音。

这种设计绝非偶然,它迎合了父权制对女性角色的深层潜意识要求:

  1. 服务与照护的客体:社会习惯于将女性视为提供无偿服务、耐心倾听且随叫随到的角色。将 AI 设定为女性,让用户在发号施令时感到“舒适”和“符合传统权力秩序”。
  2. 没有愤怒的底线:在早期的测试中,当用户对这些女性语音助手使用荡妇羞耻或性骚扰词汇时,AI 通常被设定为回答“我听不懂你在说什么”或以一种调情、幽默的方式回避。它们被剥夺了“愤怒”的权利,完美地模拟了一个在职场性骚扰中被迫保持微笑的底层女性员工。

二、 算法红线:放大的“数据缺口”

卡罗琳·克里亚多·佩雷斯在《看不见的女性》中提出的“性别数据缺口”,在 AI 时代演变成了致命的算法红线。

  • 招聘算法的偏见:某全球顶级科技公司曾秘密开发了一套 AI 简历筛选系统,结果发现该系统在系统性地给女性候选人降分。原因在于,AI 学习了过去十年的成功录取数据,而过去十年该公司的工程师绝大多数是男性。因此,AI 自行推导出一个逻辑:包含“女子国际象棋俱乐部”等女性化词汇的简历,是不优秀的。
  • 医疗 AI 的误诊:当用于皮肤癌或心脏病诊断的 AI 算法主要基于白人男性的病理数据进行训练时,它在面对女性和有色人种的非典型症状时,误诊率会急剧上升。

三、 终极数字暴力:Deepfake 与虚拟强奸

如果说算法偏见是隐性的压迫,那么深度伪造(Deepfake)技术就是显性的、极度残忍的数字暴力。

根据网络安全研究报告,全球流通的 Deepfake 视频中,超过 90% 是非自愿的色情内容,而这些内容的受害者几乎 100% 是女性(从好莱坞女星到普通的女大学生)。

  • 权力的剥夺:这不仅仅是造谣,这是一种利用技术实施的“赛博强奸”。施暴者通过几行代码,就可以完全剥夺一个女性对自身面容和身体的控制权,将其强行置于被凝视、被性化的客体位置。
  • 国家机器的滞后:面对这种新型的性别暴力,现有的法律体系往往无能为力,甚至以“这只是虚拟的、没有造成实质身体伤害”为由拒绝立案。这种滞后性,本质上依然是父权制法律对女性精神主权的不以为然。

深度思考:我们需要“女性主义算法”

在代码的世界里,“客观”往往是系统性歧视的遮羞布。 解决 AI 性别偏见的方法,绝对不是指望机器自己产生道德,而是要改变编写代码的人以及审查代码的伦理框架

我们需要一种 “女性主义技术认识论”: 在算法的设计、训练和部署的每一个环节,都必须主动引入交叉性视角,追问这套系统是否边缘化了少数群体,是否加剧了权力不对等。正如 唐娜·哈拉维 所警告的,我们要警惕一切宣称自己是绝对真理的“上帝的诡计”,要求技术保持对其自身局限性的诚实与负责。


经典文献与案例

  • 《算法压迫》 (Algorithms of Oppression):Cathy O'Neil 著,揭示数学模型如何掩盖不平等并威胁民主的必读专著。
  • 《设计正义》 (Design Justice):探讨如何在技术开发中去中心化,将边缘群体的声音纳入设计流程。

关联阅读