提高性别敏感意识,减少算法中的性别偏见,《促进人工智能算法性别平等》报告在沪发布
2021-10-01 20:49:51

日前,由联合国妇女署资助支持、玛娜数据基金会主办的“促进人工智能算法性别平等”报告发布会暨政策研讨会在上海举行,会上发布了《促进人工智能算法性别平等研究报告(2021)》(下称《报告》),专家学者共同探讨如何促进人工智能算法中的性别平等,协同政府、企业和社会的力量促进人工智能的伦理与治理的发展。

微信图片_20211001001425.jpg

《促进人工智能算法性别平等研究报告(2021)》重点关注人工智能应用中的性别偏见与歧视乱象,同时纳入社会性别的视角,指出算法性别伦理失范的表现及其社会后果。

联合国妇女署驻华办公室高级项目官员马雷军在主旨演讲中指出,在联合国可持续发展目标的17个目标工作领域里,性别平等是第5个核心目标。中国在促进性别平等以及保护妇女权益方面,有很多实质性的举措,如《民法典》《中国妇女发展纲要》等。

由玛娜数据基金会实施的联合国妇女署的“促进人工智能算法性别平等”项目是联合国CGF项目第9批项目招标(2019年)的中标项目,该项目填补了国内关于人工智能领域性别问题研究的空白。

微信图片_20211001001430.jpg

据了解,2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,明确指出要在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。该委员会近日又发布《新一代人工智能伦理规范》,第十三条特别强调避免偏见歧视,在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

据《报告》介绍,目前人工智能算法的诸多应用场景中均存在一定的性别歧视现象。以人工智能开放平台为例,一张“端着水果篮的男性”图片被AI人脸识别平台检测为“女性”,单独截出头像却能够被检测为“男性”。在就业场景中,2018年亚马逊公司的自动招聘算法倾向于给关键词含“女”字的简历打低分,降低了女性工作申请成功率,最后弃用了该招聘算法。

“算法中存在性别歧视问题,主要源于训练AI的数据集反映了人类社会存在的性别偏见,而算法工程师对这一问题缺乏意识,未将解决性别偏见纳入开发需求,从而使得算法放大了性别歧视。“该项目课题组专家况琨向记者解释算法为何会产生性别歧视问题。

微信图片_20211001001433.jpg

为女性提供更多的科技教育机会,企业提供性别平等的职业准入、培训、晋升机会,增强企业内部的性别平等意识培训等,都是解决这一问题的重要举措。在参与调研的从业者当中,有72%的从业者参与的人工智能算法项目中女性开发者比例少于30%,66%参与的团队中女性决策者比例少于30%。该项目课题组专家负责人周旅军认为,提升女性开发者和决策领导者比例,也将有利于促进算法中的性别平等,促进科技纳入更加多元包容和性别友好的视角。

《促进人工智能算法性别平等研究报告(2021)》一方面呼吁业界相关人士和社会公众更多地认识到算法性别偏见的存在,提高性别敏感意识,减少算法中的性别偏见;另一方面也期待研究成果能够为推动完善相关立法板块、形成相关配套政策措施、共同治理人工智能算法中的性别偏见和歧视起到积极的探索和建设性作用。



  作者:袁婧

  编辑:王柏玲

责任编辑:王蔚

 

*文汇独家稿件,转载请注明出处。

热门评论
打开文汇APP,查看更多精彩评论
Logo

文汇报

源于事实 来自眼界
DownLoad