2022年第7期(总第324期)
㊀㊀㊀㊀㊀㊀
学㊀习㊀与㊀探㊀索Study&Exploration
㊀㊀㊀㊀㊀㊀㊀㊀㊀No.7ꎬ2022
㊀㊀㊀㊀㊀㊀㊀㊀
Serial.No.324
法治文明与法律发展
人工智能应用的伦理风险及法治应对
潘㊀志㊀玉
(山东政法学院民商法学院ꎬ济南250014)
摘㊀要:在人工智能的发展和应用过程中ꎬ人工智能产品只应作为服务于人类的客体而存在ꎬ人工智能的
研发和应用必须彰显人的主体地位ꎮ在强人工智能和超人工智能时代ꎬ承认人工智能的法律人格尤为重要ꎮ人工智能的快速发展带来了越来越多的伦理风险和挑战ꎬ如人类主体地位受到冲击㊁利益权衡与价值选择遭遇困境㊁个人信息安全风险加剧㊁安全责任主体缺失㊁劳动者面临失业挑战等ꎮ因此ꎬ应该确立和发展数字人权理念ꎬ强化对算法伦理的法治监管ꎬ阻却人工智能应用对个人信息权益的侵害ꎬ加快推进人工智能治理的法治化进程ꎮ
个人征信查询中心关键词:人工智能ꎻ法律人格ꎻ伦理风险ꎻ算法ꎻ法治监管
中图分类号:D90㊀㊀文献标志码:A㊀㊀文章编号:1002-462X(2022)07-0061-07
①㊀
元宇宙 实际就是人们借助VR技术如身临其
境一般进入虚拟的数字世界ꎬ简言之ꎬ即是3D版的网络世界ꎮ2022年1月12日腾讯新闻联合复旦大学新闻学院传播系发布的«2021元宇宙年度报告»预测ꎬ在未来几年ꎬ元宇宙的核心维度将越来越强ꎬ包括算力㊁响应力㊁逼真性㊁沉浸性㊁互动性㊁用户自主性㊁数字财产保护㊁数字货币支付等ꎬ在制造业㊁城市规划㊁零售业㊁教育㊁医疗㊁娱乐和社交等方面的应用也将越来越多ꎮ
作者简介:潘志玉ꎬ山东政法学院民商法学院副教授ꎮ
㊀㊀在新一代信息技术革命浪潮的推动下ꎬ人工智能应用越来越广泛ꎬ尤其在以大数据和深度神经网络为代表的前沿领域取得了重大创新与突破ꎮ人工智能实际就是创造开发出能够最大程度模拟甚或超出人类大脑智力的一套原理㊁技术㊁方法及应用系统ꎬ其最终目标是让智能机器进行各种类人化操作
[1]
ꎮ当前ꎬ人工智能已成为新一轮
科技革命和产业变革的重要驱动力量ꎮ特别值得一提的是ꎬ作为年度热词的 元宇宙 开始走上了社会产业发展舞台ꎬ①
在元宇宙的世界里ꎬ人工智能也将出演重要角色ꎬ为元宇宙赋予智能的 大脑 以及创新的内容ꎮ在人工智能快速应用㊁快速发展的同时ꎬ它也给我们带来了诸多的风险和挑战ꎬ有必要从伦理哲学角度深入认识人工智能的法
律人格ꎬ从而推进人工智能治理的法治化进程ꎮ㊀㊀一㊁人工智能的法律人格
近年来ꎬ伴随人工智能的广泛应用ꎬ学界开始重视并持续审视人工智能技术与人的关系ꎬ对人工智能进
行伦理反思ꎮ这一反思首先要探讨的就是人机关系的定位问题ꎬ即人机关系属于一种平等的人际关系ꎬ还是人类主宰机器的主客体关系?根据马克思主义物质和意识的辩证关系理论ꎬ人工智能在本质上是由人类创造的ꎬ是人们在认识和改造世界过程中通过实践活动所创造的一种工具ꎮ人工智能的生成原理是模仿人的思维及人脑的作用进而设计相应的算法运作ꎬ人工智能仍然是人的意识的反映ꎬ是人脑的智慧创造的结果ꎮ人类创造智能产品的目的是使其更好地为人类服务ꎬ而一旦人工智能产品通过高端科技形成类人化意识ꎬ存在控制人类或加害于人类的现实可能性时ꎬ人机关系就可能产生倒置错位[2]ꎮ因此ꎬ在人工智能的发展和应用过程中ꎬ人工智能产品只应该作为服务于人类的客体而存在ꎬ人机关系应当是目的与手段㊁利用和被利用的关系ꎬ唯有如此ꎬ才能推动人工智能的研发运行于正确的轨道ꎬ心理健康教育专业
16
才能保证人的道德主体地位ꎮ从法律的角度来看
待人机关系的定位问题ꎬ首先要厘清的就是人工
智能的法律人格问题ꎮ
所谓法律人格ꎬ是指由国家法律所认可的一
种享受权利㊁承担义务的资格ꎬ具体分为自然人主
体人格和法律拟制主体人格ꎮ随着人工智能技术
的进步和变革ꎬ其自身的功能及应用在现实生活
中与许多法律问题相互交织ꎬ因此ꎬ规范人工智能
的法律人格具有重要意义ꎮ对于是否承认人工智
能享有法律主体资格ꎬ目前学界主要存在否定说㊁
代理说㊁电子人格说㊁有限人格说㊁新主体说等多
种界定ꎬ其中否认说为主流观点ꎮ否认说认为ꎬ具
备法律上的人格或者成为拟制法律人ꎬ需同时具
备生理学㊁心理学和社会学等要素ꎮ人工智能产
品(如智能机器人)尽管有一定的意思能力ꎬ甚至
能够担当一定的职业任务ꎬ但其仍然属于物的范
畴ꎬ不能成为民事主体ꎬ其能拥有的仅仅是经由人
类制造的无限靠近自然人意思能力或水平的民事
法律地位ꎮ如果人工智能产品给社会带来安全隐
患或风险ꎬ再或者给他人的人身或财产造成实际
损害ꎬ应当适用民法上的产品责任规范[3]ꎮ然而ꎬ对于人工智能究竟能发展到何种程度ꎬ
是否永远不能拥有法律人格ꎬ现下定论还为时尚拼音英语
早ꎮ根据人工智能的发展ꎬ大体可以将其划分为
弱人工智能㊁强人工智能和超人工智能三个阶段ꎮ
目前的人工智能的发展尚处于弱人工智能阶段ꎬ
也即这些智能机器没有自主意思ꎬ不会真正地推
理和解决问题ꎬ其能够从事的工作领域依然很有
限ꎮ而强人工智能机器不仅是一种工具ꎬ还具有
银川住宿
知觉㊁思维或自我意识ꎬ有真正推理和解决问题的
能力ꎬ其智慧程度相当于人类大脑ꎬ可以基本完成
人类的全部工作ꎮ①超人工智能则在综合智慧力㊁聪明度㊁算法㊁认知㊁创意㊁思维㊁通识㊁社交等几乎所有领域都能赶超人类大脑的智能阶段ꎮ②我们应该根据人工智能发展的不同阶段ꎬ对人工智能的法律人格作出不同的认定ꎮ在弱人工智能时期ꎬ人工智能产品犹如民法上的 物 ꎬ与其所有权人具有一定的依附关系ꎬ此时无需相关法律来判定它的人格地位ꎮ而在强人工智能甚至超人工智能阶段ꎬ就需要对人工智能的法律人格给予重新审视和考量ꎬ因为否定说无法完全解决无人驾驶㊁智能医疗等领域引发的侵权问题ꎮ③另外ꎬ人工智能之所以不被认为具有独立法律人格地位ꎬ还因为其意思表示能力受限ꎮ但是ꎬ从我国民法典的最新立法精神来看ꎬ母体怀孕期间的胎儿可以享有一定的民事权利㊁具有一定的民事权利能力ꎬ那么ꎬ由此可以看出ꎬ试图通过无意思表示能力来限制人工智能的法律主体资格也不具有完全的说服力ꎮ所以ꎬ承认人工智能的法律人格ꎬ在强人工智能和超人工智能时代具有重要意义ꎮ可以预见ꎬ随着人工智能技术的不断进步ꎬ人们对于人工智能在法律体系中的主体资格会有认知上的转变ꎬ即由从法律关系的客体到法律关系的主体的转变ꎮ虽然当前人工智能还处于弱人工智能阶段ꎬ但是十分有必要未雨绸缪探讨超强人工智能的法律人格问题ꎮ以下四种学说虽然还很不完善ꎬ但对于解决未来人工智能的法律人格问题具有一定的借鉴价值ꎮ
(一)新主体说
该学说认为ꎬ伴随发展ꎬ人工智能将来会具有一定的独立意识和思考能力ꎬ能够独立进入法律关系之中作为新的主体而存在ꎬ故可以将人工智能作为一种新的主体赋予其法律人格ꎮ法人和非法人组织也是随着立法的进步与完善在自然人之后逐渐成为法律关系的拟制主体的ꎮ而且人工智能的发展目的是为人类服务ꎬ所以认可人工智能的法律人格地位不仅可以保障既存民事主体的合法权益ꎬ也可防止出现因人工智能的民事法律地位不明而给既存民事主体带来损失的情况[4]ꎮ当然ꎬ该学说也注意到ꎬ法人㊁非法人组织仍然是
26
①
②
③
强人工智能阶段机器的智力已经与人类相当ꎬ但科学家还没有真正掌握这种技术ꎮ而美国谷歌公司开发的人工智能程序 阿尔法围棋 已经迈出了坚实的一步ꎮ现在还有一种智能的数据分析平台ꎬ可以根据输入的信息给出投资建议ꎮ
超人工智能将打破人脑受到的维度限制ꎬ其所观察和思考的内容ꎬ人脑已经无法理解ꎬ人工智能将形成一个全新的社会ꎮ
无人机驾驶㊁人工智能医疗事故等侵权案件涉及的责任主体较为复杂ꎬ不能把事故产生后的责任完全推给生产者或者设计者ꎬ单靠产品责任规范力有不逮ꎮ
由人组成的ꎬ通过内部的决议机构形成决策意见进而对外部作出意思表示ꎬ本质上还是人的组织ꎬ体现的是人的意志ꎻ而人工智能作为一种物出现ꎬ作为法律关系主体得到确立ꎬ既是对立法技术提出更高的要求ꎬ也是对立法成本的提高ꎮ
(二)代理说
该学说主张ꎬ人工智能应被认定为其所有人或使用人的代理人ꎬ按照代理法律关系处理相关争议ꎬ即人工智能产品对外实施的侵害 行为 ꎬ最终由其被代理人承担所有法律后果ꎮ该学说也具有一定的局限性ꎬ因为代理的适用前提是代理人必须具有完全民事行为能力ꎬ且无法适用于事实行为ꎬ那么对于人工智能自身运行中所产生的对外致害如何担责ꎬ又是难以自圆其说的ꎮ(三)电子人格说
该学说主张赋予人工智能以一定的 电子人 身份人格ꎬ可以在相应的领域内参与一定的法律关系ꎮ该学说主要针对的是解决由人工智能产生的损害赔偿问题ꎮ«欧洲机器人民事法律规则»旨在通过赋予人工
智能以民事主体资格ꎬ以便对其产生的损害赔偿等问题进行归责ꎮ应当说ꎬ 在对人工智能进行科学分类后ꎬ对强人工智能赋予法律主体地位具有一定科学性ꎬ但需要在实际操作中施加一定限制ꎻ同样ꎬ在分析了智能机器人的认知与行为理性后ꎬ也有必要在刑事责任层面确认其主体地位与法律人格ꎮ [5]适用该学说似乎也有一个预想前提ꎬ即未来的人工智能应当具有独立财产ꎬ否则损害赔偿仍然无法实现ꎮ(四)有限人格说
该学说考虑到人工智能无论智能到何种程度ꎬ本质上毕竟不同于人ꎬ其与自然人主体在意识㊁思维㊁行动㊁情感㊁认知等方面存在质的区别ꎬ故只是附条件且有限地承认其法律人格ꎬ承认人工智能有限的法律主体地位ꎮ该学说尝试借鉴法人和非法人组织的法律拟制规则ꎬ并结合登记备案制度来健全人工智能体的责任体制[6]ꎮ
㊀㊀二、人工智能技术应用的伦理风险与挑战人工智能的快速发展和应用将不可避免地给社会带来更多的伦理风险和挑战ꎬ①这些挑战和风险应该引起我们的警醒和重视ꎮ人类对人工智能所秉持的伦理原则和价值观将直接影响其发展路径和方向ꎬ也决定着构建何种人机关系ꎮ如果我们能对人工智能技术加以科学利用㊁合理管控ꎬ并始终坚持维护人类命运共同体利益的最高伦理规范ꎬ人们就可以充分享受人工智能技术带来的便利和利益ꎬ人类生活将变得更加舒适美好ꎮ
(一)人类主体地位受到冲击
人与人工智能的关系及人类的主体地位ꎬ是人工智能发展过程要探讨的首要问题ꎮ从目前的发展来看ꎬ人工智能只是我们创造出来的产品ꎬ处于弱人工智能阶段ꎬ仍然是民法上的 物 的范畴ꎬ人类对于其享有物权或者说是知识产权ꎮ但是ꎬ放眼不远的未来ꎬ人工智能很可能具有类似人类的思维活动以及情感体系ꎬ能通过自己的内部程序表达出自己的 意志 ꎬ通过自己的 意思表示 与人类或者与其他人工智能进行交流ꎮ这样一来ꎬ就会脱离当下与人的从属关系ꎬ成为新的法律主体ꎮ那么ꎬ它们的发明能力㊁创造能力是否会超过我们?当它们具有思维活动和意思表达能力后ꎬ是否可以具有与人类一样的法律主体资格?在法律上ꎬ它们的地位与我们是否处于同样的位置?我们是否会被人工智能统治ꎬ主体地位遭到破坏呢?除此之外ꎬ人权是我们能够获得保障㊁主张权益的最基本权利ꎮ如果人工智能同样享有婚姻㊁人格㊁名誉等权利ꎬ乃至与人组成家庭ꎬ这些都将是对人性伦理的巨大挑战ꎮ②
(二)利益权衡与价值选择遇困
技术进步应始终以人为中心ꎬ当技术出错时ꎬ一些关于伦理设计和政策的前瞻性思考可以帮助引导技术发展ꎬ从而使我们人类免受其害ꎮ在具体设计人为人工智能提前设置相应程序时ꎬ将会面对价值选择与利益权衡的困难ꎮ纵使我们赋予
36 ①
②
人工智能伦理风险源于技术 人 社会 自然之间的复杂交互ꎬ主要包括技术伦理风险㊁社会伦理风险和人类生存伦理风险等ꎬ另包含技术内生型伦理风险和技术应用型伦理风险两大生成路径ꎮ
2017年10月26日ꎬ一台名叫Sophia(索菲亚)的机器人被沙特阿拉伯授予国籍ꎬ自此索菲亚成为世界历史上第一个具有公民身份的机器人ꎮ
人工智能以正义㊁平等㊁效率㊁秩序等价值理念ꎬ执
行的效果也可能不尽如人意ꎮ比如ꎬ当人工智能
汽车行驶过程中遇到行人闯红灯ꎬ它是遵循 交
通信号灯 运行规则还是停车避让以保护行人的
安全?再或者遇到 紧急避险 情况ꎬ人工智能汽
车无论如何都会撞上行人时ꎬ它是否会选择撞向
少数人一边?为实现正义㊁平等㊁效率㊁秩序等价
值理念ꎬ人们一般会根据实际情况将原则性和灵
活性相结合ꎬ进而在行动上作出一定的取舍ꎬ而且
这要求遇到问题的人必须具有一定的思想高度才
能实现这些价值观的 最大公约数 ꎮ反观人工
智能ꎬ需要我们将这些价值的含义转换成算法植
入其系统内部作为作出判断的依据ꎬ甚至算法在
原有的道德规范嵌入基础上ꎬ还要不断学习新的
道德规范ꎬ通过持续增强其道德能力水平ꎬ才能让
其在风险来临之际作出更为合理的道德选择[7]ꎮ总之ꎬ让人工智能在关键时刻作出在道德价值判
断与伦理规范上的权衡和取舍ꎬ将是人工智能应
用中不可回避的伦理风险和挑战ꎮ(三)个人信息安全风险剧增
人工智能技术的广泛应用离不开海量大数据
的采集与精准的算法设计ꎮ所以ꎬ人工智能技术
一旦被滥用ꎬ也必将造成可怕的后果ꎮ随着数字
化技术的迅猛发展和进步ꎬ算法推荐技术正将人
们带入个性化㊁定制化㊁智能化更强的信息传播时
代ꎮ在这个新的时代ꎬ我们每个人的喜好以及购
物㊁上网习惯都会被大数据精确地发现ꎮ据«中
国大安全感知报告(2021)»显示ꎬ有七成受访者歌手排行
认为算法能获取自己的喜好㊁兴趣ꎬ从而 算计
自己ꎬ近五成受访者表示在算法束缚下想要逃离
母爱如水
孕妇能吃方便面吗网络㊁远离手机却又很难ꎮ日常生活中ꎬ人们对于
在线支付㊁图像采集㊁生物识别㊁卫星导航以及社
交软件等的运用已经习以为常ꎬ但商家㊁政府㊁网
络平台等采集的这些数据是否能够被合理利用㊁
是否得到充分保护ꎬ还没有形成透明的机制ꎬ还没
有完善的程序和规制措施ꎮ因此ꎬ隐私及个人信
息泄露仍然是人工智能技术发展应用中亟待解决
的关键问题ꎮ除此之外ꎬ人工智能若被滥用于非
法集资㊁非法经营㊁窃取情报㊁泄露国家秘密等违
法犯罪方面ꎬ也将会给个人合法权益以及国家利益㊁社会公共利益带来重大损害ꎮ(四)安全责任主体缺失困境
近年来ꎬ伴随着网络技术的更新换代ꎬ责任伦理逐渐步入学界视野㊁走入时代舞台ꎮ 新的道德思维是责任伦理精神中最深层次的东西ꎬ责任伦理所具有的他者思维㊁复杂思维和境遇思维等特点ꎬ使其能够突破传统道德思维的局限ꎬ有可能解决当代人类社会所面临的道德难题ꎮ [8]人工智能应用离不开算法ꎬ
而算法设计也很可能会被滥用而引发纠纷ꎬ甚至在某些领域出现人类不能预见又不能克服的安全风险和隐患ꎮ那么ꎬ到底哪些主体应该为这些不确定性的安全事故买单ꎬ是人工智能体本身还是研发者㊁设计者或应用者ꎬ其所引发的责任归属问题一直困扰着人类ꎬ一时还没有得到解决ꎮ①例如ꎬ无人驾驶汽车应用后ꎬ谁应为汽车事故负责?人工智能代替医生进行医学诊断时ꎬ如果出现诊断失误ꎬ谁应为这些医疗事故承担责任?如果这些责任事先没有明确划分ꎬ那么当人工智能在应用中出现事故时ꎬ就会出现责任主体缺失问题ꎬ研发者㊁设计者或应用者各方相互推卸责任ꎬ不利于人工智能的进一步应用和社会的稳定ꎮ安全责任主体多元复杂以及主体责任的缺失或不明ꎬ是新一代信息技术伦理困境的总源头ꎮ尽管国家已经制定了一些有关人工智能应用的规范ꎬ但仍然缺少完备的㊁体系化的必要执行机制ꎮ
(五)劳动者面临失业挑战
人工智能的迅猛发展对于劳动者具有多方面的威胁和挑战ꎮ其一ꎬ人工智能具有对于简单㊁机械工作的高频率重复特性ꎬ能够在短时间内完成人力所不及的生产数量ꎬ而且能够忍受更为艰苦的工作条件和生活环境ꎮ与人力劳动力相比ꎬ人工智能体具有低成本㊁高效率㊁普适性的优势ꎮ在市场经济高速发展的今日ꎬ用人单位为了获取更多的利益ꎬ更青睐于选择人工智能这一新兴的
46
①依据群体划分ꎬ一方面是算法设计者㊁使用者应当担负的重要责任ꎬ另一方面是人工智能体应承担的
责任ꎻ依据主要环节划分ꎬ责任归属则体现在人工智能设计阶段的伦理责任嵌入和人工智能体的伦理责任监管ꎬ即所谓的 前端嵌入 与 后端规约 ꎮ
劳动力 ꎮ由此ꎬ便出现人工智能取代普通劳动力的情况ꎬ特别是一些从事简单生产劳动的底层劳动者将丧失劳动机会ꎬ从而引发严重的社会保障压力ꎬ进一步拉大贫富差距ꎬ影响社会和谐稳定[9]ꎮ其二ꎬ人工智能作为一种技术㊁一种高级资源ꎬ在市场竞争中ꎬ掌握了人工智能便是占据了资源的优势ꎬ从而容易形成 马太效应 ꎬ即优势企业公司可以利用自身掌握的算法来识别㊁打击弱势企业进而形成行业垄断ꎬ造成强势企业更强㊁弱势企业更弱的局面[10]ꎮ由此ꎬ弱势企业被强势企业兼并ꎬ强势企业取得垄断地位ꎬ小企业的生存发展空间减少ꎬ劳动者的就业机会也会大大减少ꎬ对社会保障也形成挑战ꎮ其三ꎬ根据人工智能的 拟人性 ꎬ如若人工智能获得相应的法律人格ꎬ那么在人工智能参与劳动就业时ꎬ对其是否应该坚持民法的主体平等㊁意思自治原则ꎬ受到与自然人劳动相同的保护呢?这也是人工智能快速发展应该面对的问题ꎮ
㊀㊀四、人工智能应用伦理风险的法治应对人工智能技术具有突飞猛进的发展和变革态势ꎬ将对我们所处社会的政治㊁经济㊁文化㊁教育等各个方面都带来不可预估的影响ꎮ为了确保人类的主体地位ꎬ科技绝不能凌驾于伦理之上ꎬ面对在人工智能发展过程中产生的伦理风险和挑战ꎬ必须以法治思维和方式最大限度地加以管控ꎬ通过立法对人工智能技术发展的边界作出限定ꎬ确保人工智能的安全㊁可控㊁健康发展ꎮ(一)确立和发展 数字人权 理念
新兴的智慧社会催生了 第四代人权 数字人权 ꎬ①其本质是在数字经济和智慧社会发展中作为人而应该享有的权利[11]ꎮ随着互联网㊁即时通讯㊁线上课堂㊁在线支付㊁云计算㊁智能机器人等成为人们日常生活的重要组成部分ꎬ社会大众对数字网络形成惯性依赖ꎮ如果把人们对人工智能产品的利用作为其享受生活便利和舒适的一项权利看待ꎬ在此背景下普及数字人权理念就成为一种必然ꎮ为适应新兴数字时代的客观发展要求ꎬ必须推动从传统物质世界人权观到新兴数字世界人权观的提级转变ꎮ要发展数字人权ꎬ首先在基本价值理念上要坚持科技以人为本ꎬ贯彻以人民为中心的发展理念ꎬ人工智能技术的应用不能背离人性ꎬ不能伤及人类尊严ꎮ其次ꎬ在制度上ꎬ要求我们的政府以及参与人工智能研发㊁设计的主体必须坚持社会主义核心价值观ꎬ切实承担起尊重和保障人权的责任和义务ꎬ让科技遵循人文主义ꎬ符合伦理规范ꎬ并积极向广大群众普及法律知识㊁科学知识㊁智能技术的使用方法等内容ꎬ不断提高人民群众的数字化应用水平ꎬ从而填补㊁弥合社会公众特别是弱势群体面对高科技智能产品的 数字鸿沟 ꎬ真正让人工智能技术始终掌握在人民手中并造福于民ꎮ
(二)强化对算法伦理的法治监管
一些恶意软件运用算法偏差㊁算法黑箱㊁算法垄断等进行 大数据杀熟 用户画像 和 算法推荐 ꎬ引发了公众对算法推荐技术伦理风险问题的恐慌和忧虑ꎮ对于这一涉及个人信息自动化决策的热点问题ꎬ«个人信息保护法»给予了明确回应ꎬ即规定个人信息处理者应当确保决策的公开透明和结果的公平㊁公正ꎬ不得对个人在交易条件上实行不合理的歧视性差别待遇ꎮ2022年3月1日起生效施行的«互联网汽油费
信息服务算法推荐管理规定»ꎬ更是对于算法推荐服务作出了全面细致的规范ꎬ着重强化对算法相关数据㊁模型等进行评估审查ꎬ细化用户知情权㊁退出个性化推荐等权利内容ꎬ明确了算法推荐服务提供者的信息服务规范和算法治理体系ꎬ合理构建了网络平台问责机制ꎬ实行事前事中事后全流程㊁全链条政府监管ꎮ然而ꎬ毕竟该管理规定在形式上属于部门规章ꎬ强制效力较低ꎬ内容上条文数量不多ꎬ还有继续完善的空间ꎮ比如在责任主体方面ꎬ该管理规定只限定了算法推荐服务提供者这一单个主体ꎬ而对于算法推荐技术运行㊁管理时的其他参与主体以及
56
①数字人权是2020年7月全国科学技术名词审定委员会批准发布的大数据新词ꎬ但实际上在2019年6月张文显教授于 知识产权与相关权利的法理 学术研讨会上即首次提出 数字人权 概念ꎬ引发学界热议ꎮ也有学者认为ꎬ 数字人权 既缺乏宪法的规范基础ꎬ也不符合 人的尊严 标准和 最低限度基础性 标准ꎬ无法被证立为宪法未列举基本权利ꎮ