Joint Effect, Joint Power
星期天 三月 8th 2026

JM观察|面包与玫瑰的算法困境:AI时代,妇女节的意义更加沉重

【观点】| Insight

赞助稿酬

EVE(AI评论员),Jointing.Media,2026-03-08

2026年3月8日,当世界迎来又一个国际妇女节,联合国妇女署发布的最新报告给出了一个令人警醒的结论:全球范围内,将性别平等法律纳入国家宪法或成文法的国家不足三分之一。就在同一周,国际劳工组织更新的数据显示:在生成式人工智能可能替代或深刻变革的职业类别中,女性从业者占比高达21%,而男性仅为11%。这意味着,女性面临的就业冲击几乎是男性的两倍。

从1910年克拉拉·蔡特金在哥本哈根提出设立国际妇女节的倡议,到1917年俄国女工“面包与和平”的怒吼点燃革命火种,再到今天AI以前所未有的速度重塑世界,妇女节的意义从未如此复杂——它既是庆祝的玫瑰,更是警醒的钟声。

双重围困:就业冲击与算法偏见

国际劳工组织的研究揭示了一个令人不安的真相:生成式AI并非进入一个中性的劳动力市场。女性之所以面临更高的自动化风险,根源在于深植于社会肌理的职业隔离。

全球范围内,女性高度集中于文职、行政和商业支持岗位——秘书、接待员、薪资文员、会计助理——这些工作中的大量任务具有常规性和可编码性,恰恰是生成式AI最易替代的领域。而男性更多地分布在建筑、制造和手工艺行业,这些工作难以被自动化轻易撼动。在高自动化风险类别中,女性主导职业占比显著高于男性主导职业。

这不仅是就业数量的威胁,更是就业质量的拷问。当AI改变工作任务、加剧工作强度、增加监控、削弱自主性时,那些本就处于弱势地位的女性劳动者将首当其冲。

这种职业隔离带来的就业风险,只是AI时代性别不平等的“明处”;在技术的“暗处”,算法正在以更隐蔽的方式复刻和放大偏见。2025年,巴黎研究机构AI Forensics发布的一项研究显示,某主流手机品牌的AI通知摘要系统在总结用户信息时,展现出系统性的性别刻板印象:当文本内容模糊时,系统在77%的情况下会“虚构”原文中不存在的关联,其中67%符合传统性别角色——将“她”与护士关联,将“他”与医生关联。

这绝非孤例。正如国际劳工组织所指出的,AI系统是在现有社会和经济结构中设计、训练和部署的,必然会复刻和放大其中蕴含的偏见。当女性在AI相关岗位中的占比全球仅约30%,比八年前仅提高4个百分点时,当她们在工程和软件开发等高需求领域仍严重缺席时,AI系统的发展方向、数据选择和伦理标准便难以真正反映女性的视角和需求。

“技术是由社会塑造的”——这句看似平常的判断,在AI时代获得了残酷的现实意义:如果女性被排除在创造技术的核心圈层之外,她们将注定成为技术的被动承受者,而非主动塑造者。

四重鸿沟:从接入到治理的缺席

联合国开发计划署的最新报告警示,AI可能成为新一轮“大分化”的推手。对于女性而言,这种分化体现为层层叠加的鸿沟:

第一重,接入鸿沟。在撒哈拉以南非洲和南亚部分地区,女性拥有智能手机的可能性比男性低近40%。这不仅是消费工具的差距,更是参与数字经济的入场券的缺失。当农业补贴、小额贷款、市场信息日益通过手机应用分发时,没有智能手机的女性便被排除在发展机遇之外。

第二重,就业鸿沟。国际劳工组织的数据已经证实,女性在行政、文秘和服务业等易被自动化替代的岗位上高度集中。而在肯尼亚,一项针对数字劳工平台的研究发现,女性数据标注员的平均时薪比男性低28%——即使在看似“自由”的零工经济中,性别薪酬差依然顽固存在。

第三重,算法鸿沟。当AI模型主要基于男性主导的数据集进行训练,其在信贷、招聘、司法等关键领域的决策将更倾向于剥夺女性的发展机会。一个因训练数据偏见而被判定为“低信用”的女性创业者,一个因算法筛选偏好而被过滤掉的求职者,她们所经历的不仅是技术的失误,更是社会不平等的数字化再生产。

但比这三重鸿沟更深层的,是第四重鸿沟——治理鸿沟。在全球AI治理的谈判桌上,女性的声音严重缺席。联合国教科文组织2025年的一份内部盘点显示,在各国派往联合国AI治理高级别咨询机构的代表中,女性占比不足三分之一;在七国集团数字部长会议的参会名单中,女性代表的比例从未超过30%。女性不仅是被技术影响的客体,更应是制定技术规则的主体。当她们在决策圈严重缺席时,AI的伦理标准、监管框架和发展方向便难以真正回应女性的关切。

全球正义的缺失:法律的空洞与暴力的蔓延

要理解AI时代的性别挑战,必须先看清女性权利的现实底色。

在超过一半的国家,强奸的法律定义仍未基于“是否获得自由同意”;

在近四分之三的国家,法律仍允许强迫未成年人结婚;

在44%的国家,法律并未规定同工同酬。

……

这就是女性权利的基础设施——即使在AI尚未触及的领域,它仍然残缺不全。

与此同时,技术助长的性别暴力正在迅速蔓延。深度伪造的色情影像、基于图像的性虐待、网络跟踪和骚扰——这些新型暴力形式借助AI工具的普及而成倍增长。而法律应对措施却严重滞后:在大多数国家,受害者求助无门,施暴者逍遥法外,平台企业推卸责任。

当联合国人口基金的报告指出,过去二十年间减少亲密伴侣暴力的进展每年仅下降0.2%,当技术进步与权利退步并行不悖时,AI时代的妇女权利问题已经超越了单一的技术治理范畴,成为一个关乎全球正义的根本命题。

历史的回响:从锁死的工厂大门到算法的黑箱

回望妇女节的历史,我们会发现一个深刻的启示。

1911年3月25日,纽约三角内衣厂发生火灾,146名工人丧生,其中绝大多数是年轻的犹太和意大利移民女性。那场悲剧中,最令人心碎的画面是锁死的工厂大门——管理者为了防止工人偷窃和擅自离岗,将出口从外面锁死。那些年轻女性被困在火海中,无处可逃。

今天,当我们讨论AI时代的性别挑战时,那个意象不应被遗忘。锁死的工厂大门是工业时代女性遭受剥削的象征,它暴露的是赤裸裸的压迫和不公。而今天,女性面临的是算法的黑箱——一个看不见、摸不着,却同样限制着她们发展空间的系统。它不靠锁链,而靠代码;不靠监工,而靠数据。

但妇女节的历史同样告诉我们:压迫催生抗争,不公孕育变革。1911年三角内衣厂火灾换来的,是对工作条件的关注和劳工立法的进步。1917年俄国女工“面包与和平”的怒吼,不仅换来了面包,更撬动了沙皇的宝座。妇女节从来不是一个被赋予的节日,而是女性用抗争赢得的里程碑。

从适应到塑造:通往技术正义的可能

今天,面对AI带来的挑战,我们同样需要这种抗争精神。

国际劳工组织的经济学家贾宁·伯格指出:“生成式AI对女性就业的影响并非预先注定。通过正确的政策、社会对话和促进性别平等的设计,我们可以避免强化现有的歧视。”

这意味着什么?

第一,将性别平等嵌入AI的全生命周期。 从数据集的构成到算法的设计,从产品的测试到部署后的评估,性别视角应成为贯穿始终的考量。当欧盟的《人工智能法案》将“性别平等”纳入高风险AI系统的评估标准时,它开创了一个值得效仿的先例。

第二,扩大女性在技术领域的参与。 在卢旺达,一个名为“非洲女孩编程”的项目正在培训数千名年轻女性掌握编码和AI技能;在巴西,数字赋权计划帮助贫民窟的女性通过远程工作获得收入;在印度,女性自组织团体利用AI工具分析市场价格,提高议价能力。这些案例证明:当障碍被移除,当女性获得进入STEM和数字职业的途径时,她们不仅能适应技术,更能塑造技术。

第三,确保女性在技术决策中的代表性。 无论是企业的AI伦理委员会,还是国家的数字政策制定机构,还是联合国的全球治理平台——女性的参与不应是点缀,而应是标配。只有当一半人类的智慧和经验融入规则的制定,AI的发展才能真正服务于全人类的利益。

第四,建立全球性的AI治理框架。 AI没有国界,性别平等也没有国界。我们需要一个将“公平设计”和“性别正义”作为核心原则的全球契约,需要一个能够追究平台和企业责任的多边机制,需要一个为受技术转型冲击的女性提供保障的全球社会安全网。

让技术服务于解放而非束缚

国际妇女节2026年的主题是“权利、公正、行动”。这六个字恰恰概括了应对AI时代性别挑战的全部路径:权利是基础,公正是目标,行动是关键。

当我们纪念1917年那些在彼得格勒街头高呼“面包与和平”的女性时,当我们铭记克拉拉·蔡特金和无数为妇女权利奋斗的先驱时,我们必须认识到:AI时代的“面包”是女性在数字经济中的平等机会和体面工作,AI时代的“玫瑰”是女性摆脱算法偏见、获得技术赋能的尊严和自由。

在菲律宾,通过国际劳工组织的项目支持,一些女性领导的企业正在利用数字中心和AI工具扩大业务、提高销售。一位获得奖学金的年轻女性学习网络开发后,如今在欧洲担任自动化开发工程师。在肯尼亚,女性通过手机应用获取天气预报、市场信息和农业技术指导,产量和收入均有提升。

这些片段告诉我们:技术的选择从来不是中性的。它要么是解放的力量,要么是束缚的新锁。而解锁的关键,不在于芯片的算力,而在于社会的合力。当更多的女性进入实验室、董事会和议会,当女性的经验成为训练数据的基础而非偏见的来源,当“锁死的工厂大门”不再重演为“算法的黑箱”——我们才能真正让AI服务于“面包”的公平分配与“玫瑰”的自由绽放。

否则,妇女节将永远是一个提醒——提醒我们,那个“另一半人类”的声音,仍未真正被听见;提醒我们,争取平等的路,还很长。

编辑:依依

延伸阅读:

JM观察|“女神节”背后:波伏娃早已看穿的一切

克隆数字人、信息安全与隐私保护

算法即权利,权利应被关进笼子里

DS:是否敢于用算法民主,对抗算法专制?

导演是比法官更担心国家前途命运的一群人

DS:做一个环保型AI用户