大白马绝地反击涨超3% 大盘3368点底部能否支撑住? 速看>>>
许可 对外贸易大学数字经济与法律创新研究中心执行主任
出自2021全球人工智能技术大会演讲报告
马克思在《德意志意识形态》中指出:人不是单个人所固有的抽象物,个人的一定的活动方式,是他们表现自己生命的一定的方式,他们的一定的生活方式。个人如何表现自己的生命,他们自己就是怎样。
算法恰恰通过“对人如何表现自己的生命”加以影响,以实现对人的控制。
我们可以上述控制可分为如下三步:
第一步是个人画像 (profiling),通过收集、汇聚、分析个人信息,对某特定人的职业、经济、健康、 教育、个人喜好、信用、行为等方面作出分析或预测,形成其个人特征模型的过程,从而达到“知道你是谁”(who are you?)的目标。
第二步是个性化推荐,即基于特定个人的网络浏览历史、兴趣爱好、消费记录和习惯等个人信息,向他们展示信息内容、提供商品或服务及其价格等活动。算法利用人的喜好,投其所好,潜移默化地塑造你。
第三步是产生自动化决策,即在无人干预的情形下,由算法手段对人作出决策。自动化决策主要分为单独的自动化的决策(例如红灯拍照罚款),和基于个人画像的自动化决策(如健康码)。这种决策人将产生重大影响,可以带给你利益,也能剥夺或限制你的权利。
针对这三个步骤,个人信息保护法中也应有三种法律回应。
首先,个人画像的法律回应包括:确保个人的知情同意;应遵循最小化规则(即应当限于必要的范围内);对个人特征描述不应不应包含淫秽、色情、赌博、迷信、恐怖、暴力的内容; 或者表达对民族、种族、宗教、残疾、疾病歧视的内容;对未成年人应有特殊保护,比如全面禁止对未成年人个人画像。
其次,针对个性化推荐的法律回应包括:明确算法的透明性,显著区分个性化展示内容和非个性化展示的内容(比如对新闻内容的推荐);赋予个人选择权,应当同时提供不针对其个人特征的选项,或者提供个人拒绝和退出的选项;反垄断或反不正当竞争规制,对于具有市场支配地位的企业滥用市场支配地位,不得无正当理由对交易条件相同的交易相对人实施差别待遇;对未成年人特殊保护:禁止对未成年人进行个性化推荐。
最后,针对自动化决策的法律回应包括:个人信息的风险评估,就个人信息处理目的,处理方式是否合法、正当、必要,对个人的影响和风险程度,对所采取的安全保护措施是否合法,有效并与风险程度相适应等作出评估;同时,应赋予个人以知情权、算法解释权、拒绝权和人工干预权。
本文首发于微信公众号:数字经济与社会。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。
|