张凌寒:算法公平是动态概念,对算法公平的判定需符合中国语境

中新经纬3月24日电 (王玉玲)近日,由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行,北京科技大学文法学院副教授张凌寒表示,探讨算法公平,需要放置在中国语境下。

张凌寒指出,算法公平的界定应符合两点判断标准,一是需符合中国语境,二是需根据场景动态判断。

国外谈算法公平最常见的例子是算法造成的种族歧视,如被算法识别为黑猩猩的黑人女性,对白人和有色人种展示的租房广告不同等。相比国外经常以种族歧视作为算法歧视的典型案件,中国的算法歧视的常见于老年人歧视、性别歧视等。

我国监管语境下的“公平无歧视”则多是从市场竞争秩序、消费者保护角度出发的。市场监管总局发布《互联网平台落实主体责任指南(征求意见稿)》提出,平台经营者要“公平无歧视”,这个语境下的算法公平追求市场竞争秩序对商家的公平对待,以及对消费者作出公平公正的算法决策。比如说金融领域监管政策,要求银行披露一些相关算法详细的参数,是为了防范算法在银行信贷层面、保险层面的不公平决策。

张凌寒表示,算法公平要放置在中国语境下,也要把它作为中国问题去解决。现在相关法律法规都比较有中国特色。比如2022年3月1日实施生效的《互联网信息服务算法推荐管理规定》,要求算法服务提供者坚持主流价值导向,优化算法服务机制,促进算法应用向上向善,同时还要求不得设置过度消费,违背伦理道德的算法模型。

张凌寒指出,算法公平的标准也应根据场景动态判断。“我们对于公平的要求不是绝对的平均,而是在合理范围内相对灵活。例如算法公平的另一个备受关注的例子——大数据杀熟,法律对于正常合理范围内的差异化定价是允许的。也就是说,我们对于算法公平的要求,并不是要求绝对的公平、一致的公平、完全的公平,而是在合理范围内的公平和公正。

最后,张凌寒表示,算法公平在司法实践中的难题是如何举证和判定算法歧视的存在。对于个体而言,困于技术和经济的弱势地位很难承担举证责任。对于生态性公平和群体性公平,需要社会第三方机构进行算法审计。

“个体如何证明自己遭受了算法带来的不公平待遇,是未来几年之内需解决的一个司法难题。这凸显了建立社会第三方机构,对算法运行过程与结果进行审计的机制的重要性。”张凌寒说道。(中新经纬APP)

(责任编辑:王治强 HF013)

文章内容来自网络,如有侵权,联系删除、联系电话:023-85238885

参与评论

请回复有价值的信息,无意义的评论将很快被删除,账号将被禁止发言。

评论区