近几年来AI技术蓬勃发展并满足各种人类需求,却也产生不少社会问题。因此我们需要透过更谨慎的方式进行AI资料搜集、分析方法设计以及结果审视,以破除AI可能带来的性别偏见。


人类期待透过人工智慧(AI)的投入及应用,在扩大社会和经济价值的同时,也创造更加包容且多元化的社会。然而,根据世界经济论坛(World Economic Forum,WEF)日前发布的「2017第四次工业革命加速性别平等」白皮书指出,具备人工智慧领域能力的人才库中,男性占比为78%,而女性则仅有22%。而该现象可能于未来AI技术大量应用时,透过机器学习不断扩大性别差距。


2014年亚马逊尝试使用机器学习建造人才招聘模型,并透过该工具给予申请者1至5分的评分量表,藉以挑选出最合适的人才。然而该模型却于2015年被发现评分结果具性别偏误,应用于软体开发及其他技术类型的职位偏好男性求职者,并给予女性较低的分数,造成此现象的原因便是训练模型的资料来自于公司内部10年来的选才经验,而男性工作者则正好占了该产业的多数比例。


现实社会性别不平等、人类语言对AI的影响


除训练AI的数据资料造成的性别不平等之外,人类语言的使用也是造成结果偏误的原因之一。根据Leavy的论文指出,机器学习所使用的人类语言资料,与人工智慧产生性别偏误的原因有关。文体学专家也表示,这些具有性别意识形态的词汇被放入AI机器学习的演算法中,使得训练模型对性别产生刻板的结果判断,进而造成性别偏见。


另一方面,20世纪末研究女性主义的学者针对语言和性别意识形态进行研究时发现,词汇的选择及应用能够影响人们对女性的想法,并加深性别刻板印象。例如,人们会习惯在律师及法官的称谓前特别加上「女」字;根据女性的外观而称呼其「小姐」而非女士;填写资料表顺序多数为「先男后女」、报章杂志的商业文章提及男性称谓的次数平均比女性高10次等。


机器学习后所造成的偏误我们可透过探究Google翻译的模式来讨论。该工具藉由过去人们输入的语句汇整为参考数据,并透过自主学习提高翻译准确率。然而在资料未经筛选、演算法未重新设计的情况下,Google翻译便会提供使用者「具有性别偏见」的阳性词。例如,该系统在侦测到「强壮」、「医师」等词语时,翻译结果就会偏向男性:土耳其文「o bir doktor」转译为英文时,仅会出现「he is a doctor.」。


令人欣喜的是,Google近日已透过提供两种性别翻译结果的方式,解决原本翻译中存在的性别偏见,虽目前尚未包含非二元性别(non-binary gender)的译法,但已体现其追求性别平等的理念。


加强AI本身的性别教育


AI的性别歧视跟现实社会所体现的性别歧视十分相似,AI就如同一个天真的幼童,深受父母、教育、及社会环境所影响。而AI长大之后,又会持续形塑这些观念,造成歧视不断复制、加深歧视。 


根据全球资讯网基金会(World Wide Web Foundation)在2018年二十国集团女性会议(Women 20, W20)中强调,研发AI之际应避免带有性别意识。此外,他们更提出下列两项运作AI时应注意问题。


1. AI需要被喂养更平等的训练资料


训练资料的收集不应该只注重在数量的庞大与否,同时也要兼顾资料的质量,且必须注意资料样本的性别意识(语言的性别)、男/女性资料数量是否平均、是否涵盖边缘与少数族群。若在训练时缺乏某种样本群,出现「数据匮乏(data desert)」的情况,则可能为导向错误的判断结果或导致真正解答的选项消失。


政府也须在资料公正性上多做努力,除了监督资料内容之外,也需要藉由政府力量来获得难以获得的少数族群资料。


2. 找出系统性的性别偏误,利用开放资料与逻辑运算修正


以AI招募筛选为例,若一味使用过去的履历与就业资料,可能会造成对女性不利的筛选结果,而这个错误判断是现实社会累积的偏见所造成的。因此,W20认为,政府应呼吁提供AI服务的企业提升其资讯透明度,并订定相关准则进行监督,且政府须更进一步建立公正的两性平等开放资料库(open data),以提供AI系统做测试。


点击此处阅读原文