算法推荐的权利风险及其治理

郑 驰

(华东政法大学 法律学院,上海 200042)

随着网络信息技术的发展,新技术新应用推动了社会治理能力的提升、数字经济的繁荣和数字政府的建设,传统的生产生活方式、治理方式正在数字化驱动下进行着转型与变革。正如习近平总书记强调的,要“着力推动互联网和实体经济深度融合发展,以信息流带动技术流、资金流、人才流、物资流,促进资源配置优化,促进全要素生产率提升,为推动创新发展、转变经济发展方式、调整经济结构发挥积极作用”[1]。算法作为信息技术的底层架构,在信息传播、资源配置、决策辅助等方面发挥了基础性作用。算法推荐技术则为解决数字时代中信息过载的问题提供了帮助,通过精准的运算逻辑,提供个性化的内容,塑造了个人与信息之间新的连接方式。但从另一方面来看,新技术的发展也可能给公共利益、社会秩序及国家安全带来挑战,需要以协同高效的治理方式,使算法推荐等新技术在法治轨道上运行。习近平总书记指出,“要依法加强网络社会管理,加强网络新技术新应用的管理,确保互联网可管可控,使我们的网络空间清朗起来”[2]。在利用信息技术创新的扩散效应实现经济发展的同时,也应当注意技术的安全性,用主流价值导向驾驭算法,使互联网发展的成果释放普惠效应。

(一)环境架构:不依赖外界保障的自我执行

相较于法律、社群规范的规制模式,架构规制有以下特点。第一,就法律、社群规范规制而言,在对被约束者的要求上,被约束者需要了解法律、社群规范的社会调控作用,当在主观上对法律、社群规范有所预期时,被约束者便会基于预期调整行为,规范便发挥其效力。但就架构规制而言,其有效性与被约束者的认知无关,无论被约束者是否意识到架构的作用,架构均能发挥作用。第二,在对执行主体的依赖方面,架构规制可以自我执行。法律所进行的规制,往往需要有执法机关、司法机关的保障,才能实现法律的效力。不同于法律所进行的规制,由架构所进行的规制,在架构形成之时,便开始发挥作用,直到被终止。[3]362-366架构决定了用户行为的边界,同时也在一定程度上界定了用户的权利。

从现行关于架构责任的视角予以考察,首先,在设计架构方面,互联网平台主要承担行政责任。架构的有效性与被约束者的预期无关,因而架构的设计与选择并非互联网平台与用户之间的合意内容,而主要通过行政法规的规定予以调整。其次,在架构规制所产生的后果方面,由互联网平台承担侵权或是违约责任。架构规制具有自我执行的特点,能以较低的成本实现规制的目标,平台通过架构所进行的规制被作为行政机关规制的补充,实现对互联网的合作治理。

1.不受合意调整的架构设计

在设计架构方面,用户对架构设计的自主选择权限以及相关技术信息的知情权,取决于平台的设置,并主要依赖行政机关依照相关规定进行监管,用户寻求的私法救济并非主要的控制手段。以短视频网络平台抖音为例,其进行的算法推荐在页面设计上,采取的是默认推荐与连续推荐的架构。用户进入平台时,便进入了算法推荐模式,平台不设置用户选择选项,弱化了用户对正在进行算法推荐的意识。在推送频率上,无须用户过多操作便可以进行连续推荐。这样的环境为用户创造了强烈的沉浸式体验,具有个性化、信息闭环化的倾向。由此可见,网络平台的环境架构在形成后,便开始生效。平台凭借对架构的调整,能够达成平台的价值偏好,因为无须被约束者知情,个人在主观无意识的情况下受到架构的影响。而对于用户而言,架构的运作方式与运作目的则是缺乏透明度的。

当前的互联网已经度过了自生自发的阶段,平台化成为这一阶段的典型特征。平台可以对架构进行设计,乃至不仅仅控制被约束者,还对数字经济的生产过程进行引导与调整。[4]而在此过程中,平台所遵循的商业逻辑具有逐利的目标,可能对用户权利造成侵犯,例如竞价排名、诱导沉迷的设计对用户权益的损害。法律也逐步回应平台技术不中立的现象,如《中华人民共和国电子商务法》第40条要求电子商务平台经营者对于竞价排名的商品或者服务,应当显著标明“广告”。在《互联网信息服务算法推荐管理规定》中,相关规定对环境架构的设计做出了直接的规定,例如禁止算法推荐服务提供者设置诱导用户沉迷、过度消费等算法模型,要求开发适合未成年人使用的模式等内容。在平台用户协议中,架构设计并不作为平台与用户合意的内容被列出,用户对于架构的知情与选择处于黑箱的状态,用户依照架构所给出的默认设置而行为。当出现纠纷时,法院可能将架构作为判断用户行为限度的标准,划定平台与用户之间的责任。在架构允许行为的范围内,用户行为可能不被认定为违反服务协议规定的行为。(1)(2019)桂民再681号。

2.由架构间接执行法律时的单方责任

由于架构具有规制的能力,其也被行政机关利用,对互联网中的内容进行监管。鉴于架构通常由互联网平台等技术主体所掌握,监管的执行也依赖于技术主体的行动,这种方式也被认为是间接执行法律。[5]这种通过架构规制行为,从而间接执行法律的方式,引发了互联网平台与行政机关之间法律责任分配的问题。以互联网平台封禁用户账号为例,互联网平台对用户账号进行封禁体现了架构的规制能力,互联网平台能够控制违法信息传播的节点,进行封号,拒绝被封用户进入平台,从而切断信息传播的源头。[6]同时,行政机关通常以行政指导的方式,督促互联网平台对用户采取封禁、限制使用部分功能等处置措施。例如在国家网信办自2021年8月27日起开展的清朗·商业网站平台和“自媒体”违规采编发布财经类信息专项整治活动中,国家网信办会同国家发改委、财政部等部门,督促指导主要商业网站平台封禁关停了一批违规自媒体账号。[7]在这种规制模式下,用户在互联网平台上发表言论的资格受到了限制。虽然这种限制实质上有行政机关的参与,但从表面来看,反映为互联网平台通过技术设置所进行的限制。用户通常要求互联网平台承担侵权或者违约责任,而无法对行政机关提起行政复议或者诉讼,要求行政机关承担责任。[8]

(二)个人身份的数字化架构:用户画像的表达

1.以个人特征标签为基础建立的用户画像

算法推荐的个性化基于对用户形象的数字化刻画,也即进行用户画像。用户画像是用户形象的代码化表现,从架构的角度解读,用户所获取的推荐信息与其画像的架构相符。用户画像涉及算法、建模等信息技术专业知识,通过分析用户人口学特征、网络浏览内容、网络社交活动和消费行为等信息,抽象出一个标签化的用户模型。[9]152个人的数字化架构被区分为粒度由粗到细的层次化标签,系统为用户抽象出的标签对于用户所获取的推荐内容具有重要作用。在网络空间中,标签是用以约束用户获取信息类型的工具,系统根据对用户行为数据的分析,为不同的用户确定不同的标签,标签代表了对用户个人特征的确认与推断。个人数字化架构对用户获取推荐内容的影响在于,从架构的整体设计而言,若标签体系中缺少某项价值理念,那么用户将难以获取相关内容。例如在标签体系中缺少对公共性内容偏好的设计,则会导致用户获取公共性内容自由的限制。从为每个用户单独刻画的用户画像架构而言,不同的画像也决定了与用户匹配的信息内容,塑造了用户所身处的拟态环境。

2.数字身份的被动构建与事前保护

回归到个人,用户画像蕴含着个人数字身份的表达。从个人身份的发展来看,最初对个人身份的保护侧重于静态身份的保护,用以识别和认证特定的个人,实现国家治理和政府管理。在私法层面,则通过立法保护姓名权、肖像权,防止他人不当侵害个人身份。到了20世纪后期,个人身份保护侧重于动态身份保护,也即保护个人在社会生活中所呈现的身份,包括个人在社会、宗教、政治等方面所呈现的特征,确保在社会关系中呈现的自我不是被歪曲的。[10]进入数字化时代,个人不再只以自然人的形态生活在物理空间中,同时还以信息人的形态存在于虚拟空间中,具有生物与信息双重面向。[11]由此,个人的数字身份逐渐形成,并通过以个人信息为基础建构起来的用户画像呈现,个人在各方面所具备的特征则通过用户画像的标签表达出来。

用户画像所表达的数字身份与传统身份有所不同。首先,在数字身份的形成上,不仅包括由个人主动提供个人信息从而塑造出的数字身份,还包括由他人对个人进行推断,进而预测出的数字身份,即数字身份并非完全是自主构建的。推断所形成的数字身份是一种被动的构建,其脱离了个人对自我的认知,可能与个人主体相分离,具有一定风险。此外,推断常常是基于数理逻辑对用户某项个人属性的定性,并依属性对应着后续决策,例如分析用户的人脉关系、资产证明、行为累积等数据,为用户赋予信用良好或较差的数字身份属性。[12]这种推断过程通常是不透明的,既可能是基于专业槽的“文盲不透明”,也可能是基于对商业秘密保护的“故意不透明”。其次,在对身份的保护形式上,传统个人身份可以通过对姓名权、肖像权等人格权利的主张获得事后保护。但对于用户画像,用户则是通过“知情同意”机制,授权画像方使用其个人信息。这种制度设计试图在事前完成对个人信息在收集、使用全流程中的保护,遵循了现代权利观念的逻辑,即从自由推出权利,因为人有作为理性概念的自由意志,所以能够自由地做不妨碍别人的行为,也即是有了权利。[13]但数字身份的形成逻辑却与这种权利观念逻辑相悖,因为数字身份是用户进入数字生活的前提,用户有了数字身份才能够与数字服务提供方建立信任关联。[14]知情同意机制虽然看似为用户提供了表达自由意志的空间,但用户实际上面临着不同意则无法与服务提供者建立关联,从而无法进入数字生活空间的尴尬局面。因此,就由用户画像所表达的数字身份而言,事前的保护机制作用十分有限。

(三)内容生成架构:推荐算法的过滤

1.由技术架构实现的异质信息过滤

推荐算法实现了用户画像与个人之间的信息连接,决定了内容的生成。主要的推荐算法包括协同过滤推荐算法、基于内容的推荐算法、基于图结构的推荐算法等。以协同过滤推荐算法为例,其运作逻辑是:要为用户推荐感兴趣的内容,可以通过找到与该用户偏好相似的其他用户,将他们感兴趣的内容推荐给该用户。协同过滤方法中基于记忆的推荐方法可以概括为两步:第一步是采用相似度计算方法计算用户、项目之间的相似度,构造相似度矩阵;
第二步是采用相应的算法估计评分,并据此为用户进行推荐。[15]在这个过程中,推荐算法的代码架构被设计为对用户的推荐依赖相似用户的选择。用户所从事的活动留下了踪迹,而这种代码架构收集了活动踪迹,并将踪迹与其他用户相联系,用户所获得的推荐与算法所推断的与其相似的人的选择具有同质性。在这种架构下,对异质信息的需求被过滤,信息的传播范围集中在特定群体里,群体将收到横向窄化而向纵向加深的信息内容。

2.契合个体化进程的推荐算法

通过这种模式进行的信息生产遵循着用户本位的逻辑,信息精确地指向个人,用户是数字生活空间的中心,改变了传统的以传播者为本位,由传播者控制信息的采编与分发的信息生产逻辑。这种转变也体现了在社会进程中个体与社会之间关系的变迁,个人与其他社会成员的人身依附关系以及自然纽带关系被不断打破,个体化成为现代社会的突出现象。在传统社会中,以血缘关系、宗族情感为纽带建立起一个伦理社会,集体意识、道德规范调整并限制个人的行为。而随着市场经济的发展和社会经济结构的变动,城市化转型冲击了宗族在空间上的联结,越来越多的宗族成员也向各个城市流动,寻求个人的发展。[16]在进入数字时代之后,人与人之间的社会关系掩藏在数字身份之下,社会关系更加扁平化、流动化。在这种社会背景下,个人不再受到宗法等社会规范的强束缚,也不再需要将自我身份的构建依附于集体之中,个人行为越发受到自我规范的调整。[17]由此,个体化成为现代社会的明显现象,个人对自由、自决的需求逐渐增长[18],并且越发关注自身,试图使自己成为生活方式选择、时间规划、视野培育的中心与决策者。推荐算法迎合了用户的个体化需求,在与用户画像结合之后,每个用户都能拥有独占的消费类型,所生成的内容符合个体的喜好,从社会生产的角度而言,也有利于个体消费的增长。这种内容生成架构使得用户和信息之间被强联结起来,用户对信息具有高涨的情绪强度,而与之相依赖。[19]

(一)个人自主性风险

1.算法的规则刚性与个人参与不足的矛盾

技术发展所带来的红利使工具理性成为架构设计的主要逻辑。进入数字时代,个体的个性化得到了发展,并在信息消费方面展现出差异化的特征。[20]因应之下,互联网平台进行算法推荐的内容分发方式越发普遍。从算法推荐的技术角度考察,平台通过构建用户画像并进行算法推荐,使用户获得更有效的信息[21],满足个体在信息消费上的需求,也使广告投放更加精准,提高平台自身的商业价值。在这种情境下,算法推荐的代码的运行逻辑是,通过默认的推荐页面将用户固定在其中,量化用户行为,确定运算模式,得出计算后的结果,进而指导推荐信息的分发决策。这是一种相对固定的程序,因为行为和数据所对应的数值、运算模式是确定的,相同行为对应的结果也将完全相同,体现了规则运行的刚性与工具理性。但其风险在于,外观是“用户本位”的生产逻辑,但背后决定信息内容生产的,实际上是一系列代码形成的架构规则。例如,“今日头条”的推荐来源于系统为用户建立的兴趣图谱,这个兴趣图谱是基于用户所产生的数据,经过数学建模而生成的。[22]在这一过程中,需要有多种推断规则,完善代码架构。这些规则试图将实然的事实对应于应然中的价值,从量化的事实中推导出对属性的价值判断,使工具理性与价值理性统一起来。但在这一过程中,用户几乎没有控制权与参与商谈的空间,呈现给用户的是推荐结果,推荐过程与推荐技术并不透明。由此可见,“用户本位”的生产逻辑背后,实际上是推荐者所设计的技术架构决定了信息生产内容,用户的自主性被架构的生效所代替。与此同时,由于工具理性运作的体制化,社会生活领域受到了工具理性的侵占,人与人之间的关系被量化的计算所代替,从而导致了人的异化。[23]

2.个人自决在个人信息收集与利用中的局限

对个人信息的保护与信息自决权的理念密切相关,信息自决意味着个人能够对个人的信息自主决定如何使用,从而维护人的尊严。[24]信息自决权既包括个人信息主体有权决定个人信息被收集与否,即是否提供个人信息,以及提供何种个人信息以获取更为高效的服务,也包括对个人信息在后续利用环节的自主决定,例如是否同意个人信息处理方之间的信息共享。《中华人民共和国个人信息保护法》中关于个人知情同意、撤回同意、对自动化决策的拒绝权等规定体现了信息自决的内涵。在算法推荐中,个人对于个人信息收集环节的自主决定是有局限的,因为对于个人而言,只有提供个人信息,才能实现数字身份的构建,从而进入数字生活,因此知情同意机制在此环节中更多体现为知情,要求个人信息收集者依法进行告知,个人在此过程中享有的是消极的期待权利。而在个人信息利用环节中,个人对算法推荐的自主决定更为外显。《互联网信息服务算法推荐管理规定》第17条要求算法推荐服务提供者向用户提供非个性化推荐的选项,或是提供关闭算法推荐的选项,对此,微博、微信、淘宝等互联网平台均做出了回应,向用户提供可修改推荐设置的选项。[25]据此,个人可以通过积极的行为来避免算法对自身的干预,从而体现个人在个人信息利用环节的自主性。但不能忽视的是,当算法推荐涉及个人与服务提供者之间的利益博弈时,例如大数据杀熟、基于竞价排名的内容推荐等,则服务提供者通常会采取环境架构的方式予以设置,为自身获取最大利益,个人无法对此进行干预。此时,个人可以侵犯财产权益或是人格权益的方式向司法机关提起诉讼,但司法机关对于个人关于请求改变整体架构设置持审慎的态度,往往依据个人信息处理原则,认定是否存在侵害消费者个人信息的行为,从而判断服务提供者是否承担责任。例如在“胡某与上海携程商务有限公司侵权责任纠纷”一案中,胡某要求携程公司对其APP增加选项,即增加不同意使用个人信息的选项,并未得到法院的支持。此外,法院也并未对大数据杀熟存在与否做出认定,而是通过认定携程公司的价格机制不透明,存在较大价差,且存在欺骗行为,从而要求其对消费者承担责任。(2)(2021)浙06民终3129号。由此可见,对于不当利用个人信息的行为,个人虽然能请求法律救济,但救济的范围有限。

(二)隐私权风险

1.数字化圆形监狱下隐私透明度升高

就用户画像而言,形成用户画像需要收集大量用户的个人信息,从而进行用户形象推断。用户画像使得个体处于数字化圆形监狱,隐私趋于透明。圆形监狱的概念由功利主义代表人物边沁提出,其特点是圆形构造造成的全方位监视以及明暗设计对囚犯心理的暗示。监狱长在监狱中心的眺望塔上能够看到外围一圈囚禁室内每个囚犯的一举一动,而处在光亮中的囚犯却无法得知黑暗的眺望塔中是否有人监视。这种不可确认的状况使得囚犯随时保持警惕心,不触犯戒律,如同处于无休止的监视之下。而大数据时代的来临、机器学习的发展,使人们身处于一座数字化圆形监狱之中。[26]在算法推荐中,首先,隐性收集个人信息的技术在眺望塔的百叶窗之后,记录个体的行为轨迹,暗中监视。而个体却没有圆形监狱中囚徒的警惕性,不经意展露的信息悄然成为技术收集个人隐私的养料。用户在浏览推荐内容后,在平台上留下了以cookie形式存在的踪迹。通过收集这些数据,平台将对用户的偏好信息了如指掌。其次,以个人信息等内容为养料的大数据技术,除了永续监控,还能永续学习,通过在实践中反复训练,使人们的隐私透明化。在用户画像技术中,即使A用户的某项个人信息缺失,也可以通过调用模型训练其他个人信息完整、行为与A相似的用户的数据,形成标签,进而推测A用户的个人信息,准确度在一定条件下可以达到70%。[9]151采取这类标签扩散模型进行个人隐私的推测具有可能性,再结合不易察觉的隐性收集个人隐私,个体逐渐处于完全的光亮之中,隐私也将趋向透明。

2.隐私权保护方式面临双重困境

在数字社会中,传统的隐私权保护方式面临挑战。从空间角度而言,传统的隐私权保护逻辑建立在私人领域和公共领域有明显界分的基础上。在私人领域之中,个人的生活不被知晓和打扰,正如法谚“风能进、雨能进、国王不能进”所彰显的,在私人领域,国家公权力应当止步,不能侵犯私人自治空间,由此,形成了以私人住宅为边界的传统隐私权保护范围。而后随着对隐私权保护范围需求的扩张,隐私权所保护的空间不再局限于私人住宅,也拓展到公共场所,如电话亭、饭店等地也存在隐私权保护的需要。[27]然而在数字空间中,公共领域与私人领域之间的边界模糊不清,例如在由互联网平台所构造的领域中,既存在包含公共生产、公共交往及公共政治的公共领域,个人可以直接参与讨论,也存在呈现了个人位置信息、人脸信息等个人信息的私人领域。与此同时,随着用户生产内容模式的兴起,具有公共性的内容不再只由特定主体传播,而是由更为多元的主体传播,公共领域与私人领域更加难以区分。在数字空间中,侵权认定中的空间标准受到挑战。

此外,传统隐私权所追求的权能也面临着与数字经济发展要求相冲突的问题。[28]传统隐私权追求对隐私利益的排他性支配,排除他人的披露与干扰、侵犯,强调权利人对隐私的控制。在数字空间中,隐私内容则以个人信息或个人数据的方式表现出来,而个人信息被认为存在公共属性,个人无法控制信息本身,而信息、数据的开放与流动,还关系到大数据产业发展、社会经济利益的实现。[29]由此,传统隐私权保护目标的实现受到了阻碍。在实践中,个人信息的可流动性也作为隐私政策中的重要条款被列举出来,成为服务提供商提供便捷服务的前提。例如在抖音的隐私政策中,与抖音合作的位置服务提供商会获取个人的GPS信息、设备信息,合作的电商平台会获取个人的商品浏览、购买信息,第三方支付机构会获取个人的姓名、身份证号、银行卡类型及卡号、手机号码等。[30]由此可见,传统隐私权所主张的对隐私的支配与控制,已经受到了现实的挑战。

(三)平等权风险

1.信息不平等:过滤泡沫下信息分化加剧

用户画像与推荐算法结合,过滤相反观点,创建同质化信息泡沫空间,阻碍个体多样性发展。这种结合通过刻画多维度用户画像,形成更符合用户偏好的个性化推荐服务,为企业带来显著的商业价值。Netflix于2006年举办旨在提高该公司Cinematch系统推荐准确率的大奖赛后,服务模式很快从美国范围内的DVD租赁服务转型为国际范围的互联网流媒体视频订阅服务。[31]但同时,这种结合过滤掉了那些相反的观点,只让与自己意识形态相同的信息呈现出来,信息走向同质化。例如谷歌类的搜索引擎提供的信息正逐渐个性化,为用户创造独一无二的信息世界。这种方式限制了获取信息的方式和渠道,使得文化、新闻的获取类型越发单一。[32]在同质化信息所形成的信息茧房中,没有相反意见存在,导致用户对已有的意见确信不疑,沉迷于茧房中,放弃广泛分散的有益的新知识。[33]因此,在不够成熟的用户画像构建与过滤泡沫的共同作用下,用户获取的信息内容同质化,不仅有局限用户视野的风险,还可能加剧思想的僵化、意见的极端化,在人与人之间拉开信息异质化的鸿沟。这将造成社会维度的信息分化。分化的进一步后果是信息不平等[34],再结合主体信息能力的差异,个人在获取和使用信息过程中享有不平等的数字红利。

2.结构性不平等:数字资本对用户剩余劳动价值的剥削

与个人间信息不平等所不同的是,个人与算法推荐服务提供者之间存在结构上的不平等。就互联网平台而言,有观点认为,平台资本为用户提供了数字公共平台,同时也剥削了用户的剩余劳动价值。具体而言,互联网平台提供者类似于封建社会的地主,其所提供的数字公共平台类似于封建社会中的土地,而用户则是佃农。互联网平台提供者提供了数字公共平台、个人账户代码作为生产资料,用户则利用生产资料生产数据,包括发布的文字、图片、视频数据,与其他用户的交流数据,以及浏览记录等数据。这些数据被互联网平台提供者获得,从而实现对用户剩余劳动的占有。[35]传统的资本转化为数字资本,劳动转化为数字劳动,互联网平台基于头部效应获得的垄断地位使得剥削成为可能,平台与用户之间的用户协议为数字劳动体系、数字剥削提供了制度层面合法的掩盖,平台获取海量的数据要素,与用户形成了资源上的不平等关系。此外,技术对平台与个人的赋能存在差异,平台由于对海量数据、算法具有控制力,能够据此对自身能力进行提升,相较于用户获得技术上的优势地位,从而能够通过架构规制的方式,不顾用户的意志而行为,对用户展示私权力的面向。平台与用户之间的不平等关系也诱发了平台自我优待、滥用平台处罚权等不正义后果。例如在“欧盟谷歌案件”中,由于谷歌将自营的购物服务网站置于同类产品搜索结果的顶端,使自营产品获得更多流量,而被欧盟委员会认定为是违反欧盟竞争法的自我优待行为,并处以高额的罚款。[36]

(一)隐私增强的架构设计保护隐私权

技术与个体存在相互塑造的关系,人们把用户画像看作有待利用的事物,用以为满足需求服务,但从另一方面看,随着人们与参与构造人们认同的用户画像互相起作用,两者的关系慢慢有所调整,不再单纯是工具与使用者的关系,人们的习惯、特性会有所改变,个体的喜好逐渐被技术勾勒、引导。用户画像进一步使网络行为成为私人化、个体化的模式。我们无法逃离新技术的怀抱,除非我们脱离了所处的社会,当我们持续不断地欣然接受这些新出现的技术时,必然会使得自己成为某种伺服机构与新技术联系在一起。[37]因而规制技术风险可以从源头出发,通过规范逻辑设计,使技术在满足个人需要的同时实现公平,而不是被技术所规训。

技术可以成为治理技术的手段。法律的治理体现为一种命令,具有威慑性,在事后进行约束;
而技术的治理则体现为对架构环境的改造,环境一旦形成,事前即产生约束的效果。[3]365利用技术进行治理的方式,在域外有所运用。在由欧盟委员会成立的专家小组所制定的《出于公众利益的B2G数据共享欧盟策略》中,明确隐私保护技术将成为任何B2G数据共享的关键促成因素,他们建议在数据共享的架构中加入加密技术及差别隐私技术实现公共利益的保护。[38]《美国联邦法规》第45个主题公共福利中规定,对电子健康信息的安全保护包括技术的保障,如在非活动时间会自动终止电子会话的电子程序、确保数据传输中的电子健康信息不会被随意修改的完整性控件等,以此保护数据安全以及隐私。在对隐私权的保护方面,可以利用隐私增强技术(PET)促进与隐私相关的利益,在用户画像的体系结构中嵌入隐私增强技术,增强对隐私权的事前保护。该技术可以分为两大类[39]:第一类是替代性隐私增强技术,此种技术的目的是确保匿名,提供用户身份保护,使数据收集最小化,在进行电子邮件收发、支付、网页浏览等行为时,用户可以实现完全匿名,这是数据保护的激进版本;
另一类是补充性隐私增强技术,可用于修补技术,使技术方案遵守相关隐私或数据保护法规,而不完全排除企业的商业目的。[40]例如2014年推出的“访问我的信息”(AMI)工具,能够帮助个人请求访问电信提供商、某些应用程序中的个人信息,以此支持用户以自动化的方式行使对个人信息的访问权、异议权、修改权。[41]由于数据的完全匿名化与数据利用的效益是不可兼得的目标,而我国目前的数据发展创新还处于起步阶段,尚有可释放的数据红利,因而鼓励使用补充性隐私增强技术是更可行有效的设计方式。

(二)配置用户画像权利义务保障自主性

我国现有法律法规对于用户画像相关权利义务内容缺少更细化的规定,然而信息不对称、经济实力的差距使用户处于相对弱势的地位。面对个人信息所蕴藏的经济价值,资本的逐利性将进一步使用户权益受到威胁。为防止各方主体地位不平衡的加剧,可以借鉴欧盟立法经验对个人信息进行较为严格的保护。

在欧盟的立法中,个人数据受保护的权利被上升到基本权利的高度,企业在个人数据上的活动空间受到限制。[42]在2018年开始适用的欧盟《一般数据保护条例》中,针对用户画像有更加严格、具体的要求,围绕个人数据保护配置了一系列权利义务内容。与此同时,对个人数据的保护不是绝对权利,也需要根据其在社会中的功能加以考虑,并根据相称性原则与其他基本权利相平衡。《一般数据保护条例》对画像的定义,关注画像对个人特征的分析和预测,比如个人喜好、健康状况等内容。在数据控制者关于画像的义务方面,如果存在画像等自动化决策的情况,那么数据控制者在收集数据主体个人数据时,不仅需要提供数据控制者的身份、处理个人数据的目的、存储期限、数据主体享有的权利等内容,还需要告知画像等自动化决策的存在、逻辑程序、预期后果与意义,以此保证处理的公平性、透明性。对于可能对自然人产生重大影响的画像等个人数据的处理,数据控制者必须在处理前评估这种处理对个人数据保护的影响。在数据主体关于画像的权利配置上,如果个人数据正在被处理,那么数据主体有权访问其个人数据以及画像等自动化决策的逻辑程序,知悉其预期后果与意义;
数据主体有权随时拒绝为了直接营销而进行的用户画像等个人数据处理;
有权随时拒绝为了公共利益或者第三方利益而对其进行的用户画像,除非数据控制者出示令人信服的合法理由,并且该理由超越了数据主体的利益、权利和自由。对于由画像等自动化处理产生的、对数据主体有严重影响的决策,数据主体有权拒绝,除非这种决策对于订立合同是必需的,或者是被相关法律授权的且有适当措施保护数据主体的权利、自由和合法利益,或者是基于数据主体明确同意。在第一种和第三种情况下,数据控制者应当采取措施,保证数据主体有一定的人为干预权,以便其能表达对决策的异议等观点。此外,欧盟数据保护委员会发布了基于画像的决策的标准与条件,以确保《一般数据保护条例》的一致性适用。(3)《General Data Protection Regulation》Article 4, 13, 35, 15, 21, 22, 70.

因此,在对用户画像的权利义务配置上,可以在立法上确立用户画像中个人信息控制者的义务、个人信息主体的权利。个人信息控制者的义务包括:第一,明示义务,即明示用户画像逻辑程序、预期后果的义务,如用户画像使用的训练数据、模型;
第二,用户画像前风险评估义务,如进行个人信用画像前,对用户画像技术的风险评估。个人信息主体的权利包括:第一,知情权,即随时访问对自己进行的用户画像的逻辑程序与预期后果的权利;
第二,拒绝权,即拒绝某些用户画像的权利,比如拒绝用于推送商业广告的用户画像;
第三,异议权,即当画像结果对用户有严重影响时,用户有提出异议的权利。

(三)强化网络平台的伦理约束促进算法向善

算法本身是中立的,但算法架构受到设计者的影响,能够被调整为符合设计者利益的模式。架构本身的运作是不透明的,不同于法律规制,有明显的义务主体承担设计失误的责任。这种特点可能导致人的主体性地位异化,沦为技术的附属,却无法向加害者主张责任。人是社会的主体、认识世界万物的主体,也是判定事物真假、衡量事物价值的主体。审视技术与人之间的关系,技术从对人的主体性没有威胁的工具与客体,渗透进社会生活,在众多的活动领域中,技术的介入逐渐成为达到预期效率的根本性方法。技术秩序的普遍存在不仅改变了人存在的外部环境,也侵蚀着人的主体性地位。因此,应当加强作为架构设计者的网络平台的伦理约束,技术中立不能作为突破对个人信息保护要求的借口,应对技术背后的利益博弈进行调整,保障人的尊严,矫正人被客体化的倾向。

具体而言,在算法推荐中,第一,对于可能威胁个体自治的算法推荐,首先可以强化算法分发的伦理审查,评估算法权重设计是否合理、推送内容的价值导向,避免信息推送的同质化。其次,提高服务提供者的信息披露要求,对推荐的原因进行明示,区分商业广告、具体的偏好推荐,对算法推荐可能造成的结果进行警示[43],降低信息茧房的影响,以此提高用户的信息价值识别能力,促成个体的多样化发展。第二,对于影响平等权实现的算法推荐,可以引入算法评估制度,依照公平原则进行评估。既包括实质性方面的确保个人和群体不受不公平待遇、歧视和污名化,以及促进在获得教育、商品、服务和技术方面的平等机会,还包括程序方面的公平,即对系统及其控制者所做的决定有提出异议、有效补救的能力。此外,还应当提供对特殊群体的保护,保持可访问性以及无障碍的设计,避免持有偏见,使特殊群体也能够使用相关技术。对于算法系统的要求则包括,评估系统中是否设置有程序来处理和纠正潜在的歧视,是否允许系统对偏见、歧视予以标记,从而防止偏差数据再次进入系统,以及是否建立了确保公平性的相关机制。[44]

落实到主体的行动上,则需要有多元主体的参与,使算法在社会生态中向善发展。在政府层面,可以通过发布关于技术伦理、算法伦理的政策,展现伦理在技术创新中的重要性,以及其对社会治理的作用,引导技术主体积极遵循伦理规范而行动。当前我国政府已经开始就此议题展开部署。例如在2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》[45],为利益相关方提供伦理指引,使人工智能在伦理道德的引导下健康发展。2022年3月20日,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》[46],提出了增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明的科技伦理原则,还对科技伦理治理体制的健全、制度保障的加强,以及审查和监督的强化等内容做出了系统性的安排,以求实现科技自立自强的目标。这些政策为技术向善提供了遵循基础。在行业层面,需要推动行业在算法治理上的自律,可以通过建立声誉机制,推动算法质量的提高,即由行业对技术主体的算法伦理性进行评级,通过这种激励惩罚机制,促进技术主体重视伦理规范对技术的调整。在个人层面,需要强化其在数字化时代的数字素养教育,培养其数字素养,提升其数字能力,从而维护数字时代下人的尊严。

法律、社群规范、市场、架构作为四种约束模式,可以对个人的行为进行规制。随着社会的发展,规制模式的应用也有所变化。19世纪中期主要是社群规范在约束着自由;
20世纪初期是国家强权约束甚至威胁着自由;
20世纪中期之后的大部分时间里,是市场在约束着自由;
进入21世纪,在网络空间中代码是社会生活的“预设环境”,是社会生活的架构,正在约束着自由。[3]132-133随着数字时代的来临,个人走向数字化生存的空间,对于信息内容的需求也走向个人化。后信息时代的根本特征是真正的个人化[47],算法推荐以个性化为特征,符合个人化的需求,在信息分发领域产生巨大的影响,重塑了信息传播规则,改变了人们认知的方式与机制。[48]架构在算法推荐中起着塑造信息分发方式、规训个人的作用,通过约束个人进入数字生活、获取信息的自由,达到规制用户行为的目的。在法律、社群规范介入之前,架构的工具主义倾向明显,对个人的自主性、隐私权、平等权造成了风险。在网络空间中,自由在一定程度上为架构所塑造,在缺少治理的情况下,架构规制的权力将进一步膨胀,引发损害结果。因而也应当对架构进行综合性治理,从而为个人自由保留空间,在保障个人权利的前提下发展技术,坚持鼓励支持布局前沿技术,同时坚持政策引导及依法管理,控制风险蔓延,促进信息技术、互联网生态持续健康发展。

猜你喜欢 画像个人信息架构 威猛的画像小哥白尼(神奇星球)(2022年3期)2022-06-06个人信息保护进入“法时代”今日农业(2022年1期)2022-06-01功能架构在电子电气架构开发中的应用和实践汽车工程(2021年12期)2021-03-08敏感个人信息保护:我国《个人信息保护法》的重要内容中国军转民·下半月(2021年12期)2021-02-15画像非公有制企业党建(2020年10期)2020-10-27主题语境九:个人信息(1)疯狂英语·爱英语(2020年9期)2020-01-07民法典应进一步完善侵害个人信息责任规定民主与法制(2019年45期)2019-11-17构建富有活力和效率的社会治理架构当代陕西(2019年16期)2019-09-25画像瞭望东方周刊(2017年7期)2017-03-01VIE:从何而来,去向何方中国总会计师(2015年5期)2015-06-16

推荐访问:算法 治理 权利