科技,不过是男性压迫女性的新手段

胡小颖 · 2017-07-12
助长性别歧视的科技都是“黑”科技。

编者按:如果你询问任何一个受过高等教育的人,问TA认为在工作中是否需要两性平等,TA肯定会赞同。但是现实永远是另一回事。虽然,随着更严格法律法规的推出、对多元化包容的增长和对政治正确的强调,工作场所中的性别歧视正在减少,但微妙的性别歧视仍然无处不在,而当事人甚至都不会意识到这一点。更可怕的是,作为一种理想状态里绝对中立的存在,科学技术正在沿袭社会中的性别歧视。要打破那层看不见的玻璃天花板,需要付出的努力仍然远超想象。科技领域的女生们,反击吧!本文编译自卫报原题为“Tech has become another way for men to oppress women”的文章。

“湾区的大多数女性都是软弱的,软弱的,被宠爱的,天真的——尽管他们声称自己拥有世俗心,而且通常都是一团糟。”前Facebook产品经理Antonio García Martínez在2016年这样写道。“她们有为了满足自己私心的女权主义,她们不断吹嘘自己所谓的独立。但现实是,一旦遭受外来的打击,它会变成一种毫无用处的包袱,而女人们会用它来换取任何蝇头小利。”这是他对硅谷内部的描述——《混乱的猴子》。这本书很畅销,《纽约时报》称之为“一部不可或缺、不可抵挡的面向新科技产业的360度全方位介绍”。任何对最近有关性别歧视在科技行业蔓延的丑闻感到惊讶的人,都没有被关注。

当苏珊福勒写下她在优步遭遇性骚扰的经历时,它如导火索一般引发了一系列事件,这在几个月前是不可想象的。后果包括前司法部长埃里克霍尔德领导的一项调查,以及该公司领导团队的一些关键成员的离职。风险投资家Justin Caldbeck面临着骚扰行为的指控,当他做出了无法令人信服的否认时,他的公司资助的公司联合起来谴责他的行为。他随后辞职了,前公司的未来也变得不明朗起来。从那时起,数十名女性站了出来,揭露硅谷科技和风险投资公司中广泛存在的性别歧视问题。越来越多的人认为,科技行业中女性的问题并不是“前进”的失败,而是饱受骚扰和侵犯之苦,使得她们的工作环境普遍不安全、不愉快。

不过,至少这个问题正在引发重视。在科技行业,性别歧视的问题越来越严重。技术发展正在以种种方式破坏性别平等的事业。

美国学者Melvin Kranzberg告诉我们,技术既不是完全地好,也不是完全地坏,而是中立的。作为一个黑镜,它反映了社会中存在的问题——包括对女性的压迫。成千上万的人每天都在Alexa(一家专门发布网站世界排名的网站)上发号施令,但我们很少会被鼓励去思考为什么它的内部管理人员的声音是个女性。最近,一家健身房的女更衣室的进入系统拒绝了一名女性成员的加入,因为她的头衔是“Dr”,因此被归类为男性。

但问题不仅在于科技产品中反映了女性地位的不平等。她们也常常对女性的生活经历表现出无知或不关心。随着物联网的发展,越来越多的设备在我们家里和我们的身体上收集有关数据并将其发送到网络,这是一个我们通常无法控制的过程。这给社会弱势群体带来了深刻的问题——包括那些为曾遭受家庭暴力的“幸存者”。可穿戴技术可以被黑客入侵,汽车和手机可以被追踪,而恒温器的数据可以显示出某人是否在家。对于经历过强奸、暴力或跟踪的人来说,这种潜在的侵犯风险是可怕的。

毫不奇怪,滥用技术的人使用了技术:在一项针对家庭暴力服务组织的调查中,97%的人报告说,使用这些服务的幸存者经历了骚扰、监视和滥用技术的威胁。这种情况经常发生在手机上,但60%的被调查者也报告说,虐待者利用其他形式的技术,包括玩具和其他礼物,监视或窃听幸存者或儿童。由于担心向跟踪者透露自己的位置信息,许多庇护所已经采取了禁止使用Facebook的行为。有一些方法可以让设备控制用户,并限制滥用的能力。但几乎没有证据表明,这是科技行业的首要任务。

对女性需求更敏感的产品将是一个很好的开始。但我们也应该思考更大的问题:我们必须避免在系统设计中再现性别歧视。在聊天机器人和文字搜索等东西中使用的文字嵌入模型提供了一个很有启发性的例子。这些模型通过将大量的文本输入到计算机中,从而学习如何让它们相互关联。它是基于这样一个前提,即在文本中出现的词语具有相同的含义。这些相互关系是在自然语言处理中得到使用,这样计算机就可以与我们交谈。通过阅读大量的文本,计算机可以了解到,巴黎之于法国等同于东京之于日本。它通过联想开发出一本词典。

但当世界不像它认为的那样的时候,就会产生问题。例如,研究人员已经试验了其中一种文字嵌入模型Word2vec,这是一种受欢迎且免费的模式,由谷歌新闻提供的300万文字材料进行培训。他们发现它产生了高度性别歧视的类比。例如,当被问到“男人之于女人,就像电脑程序员之于什么?”这个模型将回答“家庭主妇”。或者“父亲之于母亲,就像医生之于什么?”答案是“护士”。

当然,这个模型反映了一个现实:确实有更多的男性计算机程序员,而护士更多的是女性。但是这种偏见反映了社会歧视,当我们使用依赖于Word2vec的自然语言时,这种偏见将会被不断复刻和加强。不难想象,这种模式也可能存在种族偏见,或对其他群体产生偏见。

在语言学习过程中,这些偏见可以被放大。正如麻省理工学院的技术评论所指出的——如果“计算机程序员”这个词与男性的关系比女性更密切,那么搜索“计算机程序员CV”这个词可能赋予男性以高于女性的重视程度。当这种语言学习在医学、教育、就业、政策制定和刑事司法等领域都有应用的时候,不难看出这种偏见会造成多大的损害。

消除这种性别偏见是一个挑战,部分原因在于这个问题本身就是政治性的:Word2vec把世界变成了它本来的样子,而不是它能或应该是什么样子。但是,如果我们要改变这些模型来反映我们的愿望,我们又如何决定我们想要看到什么样的世界呢?

数字技术提供了无数种方法来让这些理解发挥作用。这并不坏,但我们必须挑战这种假设,即它是中性的。它的潜力正在被探索,有时是有希望的,通常是令人恐惧和惊奇的。为了充分利用这一时刻,我们需要想象一个没有压迫的美好未来。我们需要让女性在她们感到安全和尊重的工作场所来发挥她们的潜能。我们也需要研究一下科技发展中存在的黑镜,让光芒穿过缝隙照亮黑暗的角落。

编译组出品。编辑:郝鹏程

+1

好文章,需要你的鼓励

参与评论
登录后才能参与讨论哦...
后参与讨论
提交评论0/1000

请回复有价值的信息,无意义的评论将很快被删除,账号将被禁止发言。

下一篇

京东、唯品会联合发声明,天猫回应了。

2017-07-12

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

为你推送和解读最前沿、最有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚集全球最优秀的创业者,项目融资率接近97%,领跑行业