8月6日,随着人工智能技术的广泛应用,数据偏见引发的人格权侵害问题再度成为社会焦点。今日,澎湃政务频道发布了中国人民大学法学院袁梦迪研究员的最新研究成果《数据偏见侵害人格权的法律规制研究》,引发法律界与科技行业的热议。该研究指出,当前社会中算法歧视、数据采集不公等问题已导致大量人格权争议,亟待通过法律手段予以约束。
本文将结合
一、数据偏见侵人人格权的现实图景
袁梦迪团队在研究中强调,数据偏见侵害人格权的三大路径值得关注:其一,训练数据样本的结构性缺陷(例如少数族裔数据不足);其二,算法决策过程不透明导致的权利主张困难;其三,企业“技术中立”借口下的责任逃避。这些现象在信贷、招聘、短视频推荐等场景中最为突出。
二、现行法律体系面临的核心挑战
我国《个人信息保护法》第24条虽对“自动化决策”作出限制,但对数据偏见的认定标准、企业举证责任分配等具体问题缺乏操作性细则。今日上海互联网法院审理的一起案件正反映了这一困境:原告主张某社交平台算法导致其言论传播受限,但因无法证明“数据偏差存在”,最终败诉。
在
三、袁梦迪研究提出的解决方案
针对目前的法律滞后现状,袁梦迪在研究中创新性地提出“全链条规制模型”。该模型包含三个关键支柱:
1. **数据采集阶段强制披露机制**:要求企业在数据收集协议中明确标注样本构成,对可能引发偏见的字段设置风险提示(例如“婚姻状况与信贷评分相关性”需经用户明示同意);
2. **算法决策透明化框架**:建立“白名单-黑名单”指标库,禁止对性别、种族等23类敏感特征进行无正当理由的权重赋值。这项提议已引发技术伦理委员会的高度关注;
3. **举证责任倒置制度**:对于涉及大规模用户的算法争议案例,由企业负责自证无偏见。今日北京互联网法院已透露,正在某案件中试行这项规则。
四、热点事件中的法律实践启示
在
对此,中国社科院法学所研究员李明(化名)指出:“今天的技术争议本质是价值观的较量,法律必须成为捍卫公平的最后一道防线。”他建议在《人工智能法》草案中增设“偏见影响评估”强制条款,要求企业在算法部署前进行NIST标准的公平性测试。
五、国际合作与本土化路径
该研究还对比分析欧盟《人工智能法案》对“社会评分”系统的严格限制,以及美国《算法正义法案》要求企业公开算法偏见投诉渠道的实践。尽管美欧模式存在差异,但袁梦迪强调我国需走出第三条道路——在保障技术发展的同时,建立具有可操作性的“偏见补偿金”制度,让受害者获得及时救济。
结语:站在
欲了解研究详情,请参考:袁梦迪|数据偏见侵害人格权的法律规制研究澎湃号·政务澎湃新闻