中新经纬12月21日电 (张燕征)近日,清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会。清华大学公共管理学院副教授陈玲在研讨会上指出,可从数据、算法、人类行为三个层面入手,建立一个“可接受公平”的整体框架,关注算法治理的起点、过程和结果公平,促进AI的创新发展和善治。 清华大学公共管理学院副教授陈玲。来源:主办方供图 “不管哪个国家、经济体或产业部门,各方都把公平作为算法治理的一个起点性要求,但实际上关于什么是算法公平,大家却没有共同可接受的内容。”陈玲认为,公平有不同的定义,至少应先建立一个基础框架,从共识的角度去理解“可接受公平”。 公平可分为起点公平、过程公平、结果公平,陈玲建议针对不同阶段的公平来制定相应的公平准则。“例如,我们将数据作为起点公平的对象,首先我们希望用于训练算法模型的数据集本身是完整的,数据集不偏向于男性或女性、白人或黑人等。其次,数据集应当是开放的、用户可以自己选择进入或退出数据集。若数据集完整且开放,至少可以在最低限度上保证算法的起点公平。”陈玲称。 在陈玲看来,算法程序的透明、可追溯、可问责,有利于促进算法的过程公平。例如通过企业内设的算法伦理委员会或外部监管机构,可以核查、追溯到算法任意模块或环节的问题,进而确定每一个模块或环节的可问责对象,这可以在最低限度上确保算法的过程公平。 “结果公平是人们最直观、最朴素的公平诉求。人们看到的算法推荐或AI决策,希望这些是可计算、可预期和可解释的。”陈玲举例称,很多时候人们可以接受一些歧视定价或者专门推荐,比如保险的差别定价,本质上是因为它符合人们的预期,而不是结果均等。“所以,算法推荐结果的可计算、可预期、可解释,而不是决策结果的均等化,是结果公平的最低起点。” 那么如何建立一个可接受公平的整体框架?在陈玲看来,可从数据、算法、人类行为三个层面入手。“数据的完整性、准确性、开放性,算法的透明、可追溯和可问责,结果的可计算、可预期、可解释,这是大家可接受的公平底线;那些尚存争议或技术上有待解决的部分,可以作为算法公平的调适区间,随着调适水平提高,算法公平的共识底线也可以逐步提高。” 那么,算法公平的规则体系具体该如何落地?陈玲表示,法律提供了一个最低限度的公平底线,算法伦理的要求往往高于法律。可以从私法、公法、全球秩序三个层面来研究现有法律体系的规制现状,找到可接受公平的共识起点。 “全球立法或治理规定,对我们有两点启示:一是在中国国内现有的法律和行政法规体系下,建议推出不同层面的策略,包括算法公平政策、虚假信息准则、可信的透明度准则等;二是兼顾创新和数字经济的发展,尊重客观的现实条件,吸引更多的工程师和不同领域的专家参与到规则制定过程中。”陈玲称。(中新经纬APP)
|