隐私计算的法律规制相关问题研究论文

2024-02-23 10:52:05 来源: 作者:heting
摘要:近年来兴起的隐私计算技术,旨在保护数据流通安全,实现数据“可用不可见”的服务模式,对打破企业数据孤岛、完善个人隐私保护具有创新意义。但是隐私计算技术在医疗、金融和行政领域的广泛运用,也带来了数据安全、数据确权和数据主体行权难等一系列问题。我国的法律法规对此并没有针对性的法律规制,本文旨在通过分析隐私计算的现存法律问题,为隐私计算技术寻找更加完备的法律规制出路。
摘要:近年来兴起的隐私计算技术,旨在保护数据流通安全,实现数据“可用不可见”的服务模式,对打破企业数据孤岛、完善个人隐私保护具有创新意义。但是隐私计算技术在医疗、金融和行政领域的广泛运用,也带来了数据安全、数据确权和数据主体行权难等一系列问题。我国的法律法规对此并没有针对性的法律规制,本文旨在通过分析隐私计算的现存法律问题,为隐私计算技术寻找更加完备的法律规制出路。
关键词:隐私计算,数据安全,法律责任
数字经济对当代生产方式和治理方式的改变是革命性的,据国务院2022年1月发布的《“十四五”数字经济发展规划》展望,未来两年内,数字经济中的核心产业增值部分,将占GDP总比重的10%。一方面,数据要素中蕴含的营利能力,盘活了数据价值创造、数据交易流通和数据挖掘计算的过程;另一方面,在数据资源不断聚集的过程中,恶性的行业竞争也带来了数据泄露和数据欺骗等安全问题,个人隐私保护也成为人们在互联网上最为关注的话题。
为了兼顾数据流通效率和数据隐私保护,“隐私计算”技术应时而生,成为大力建设数字经济时代的有力基础。但是隐私计算中“可用不可见”的范式,也蕴含着数据泄露、数据欺骗和数据所有权模糊等问题。隐私计算的风险治理和责任承担,离不开法律规制。
一、隐私计算的背景
(一)我国隐私计算的行业发展现状
广义的隐私计算技术可以是为保护敏感信息而实施的任何技术手段,狭义的隐私计算则是必须依托加密结构的新兴隐私增强技术。2016年是我国隐私计算的元年,这一年国内开始出现隐私计算商业项目,同时《隐私计算研究范畴及发展趋势》一文也首次正式在我国提出隐私计算的概念——“面向隐私信息全生命周期保护的计算理论和方法”[1]。自2021年开始,隐私计算技术的发明专利申请数量激增,大量初创企业和互联网巨头开始涌入隐私计算的医疗、行政和金融领域,这些领域都是关系到国家安全和经济稳定的重点领域。2022年中国信通院牵头制定了《隐私计算白皮书(2022年)》,总结了隐私计算的技术要点和产业布局,为今后的合规发展提出了指导建议。
(二)我国隐私计算的法律规制现状
与隐私计算行业的日趋火热相对比,隐私计算技术的法律定位并不清晰,主要由《中华人民共和国民法典》(以下简称《民法典》)、《中华人民共和国网络安全法》(以下简称《网络安全法》)、《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)、《中华人民共和国数据安全法》四部法律和其他政策性文件统筹调整。通过法律明确了禁止实施侵害隐私权的行为类型,处理个人信息应遵循的原则与合法性要件、个人信息的合理使用,还对隐私权和个人信息保护的关系问题作出了规定,对数据安全制度和数据参与各方的权利义务进行了规定。
为了支持隐私计算技术发展,促进数据要素安全流通,我国出台了多个政策性文件。《要素市场化配置综合改革试点总体方案》要求寻找数据“可用不可见”的交易范式;《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》要求构建合规的数据流通制度;《全国一体化政务大数据体系建设指南》中提到用隐私计算技术深挖地区数据资源;《国务院办公厅关于加快推进电子证照扩大应用领域和全国互通互认的意见》要求运用隐私计算等手段保障电子证件的安全。此外,中国信通院牵头修订了一系列隐私计算标准,包括《基于多方安全计算的数据流通产品技术要求与测试方法》《基于联邦学习的数据流通产品技术要求与测试方法》《基于可信执行环境的数据计算平台技术要求与测试方法》和《区块链辅助的隐私计算技术工具技术要求与测试方法》等,但是关于隐私计算产品的安全性能相关标准和测试方法还未有落实。
二、我国隐私计算中存在的问题
(一)数据泄露
隐私计算技术本身是为了促进隐私保护而运用的,但同时其也极有可能变成数据泄露的罪魁祸首。从技术本身的缺点来看,隐私计算可以根据原始数据是否从获取地流出、数据的计算地点是否分散来分类。如果采用原始数据变形后再流出集中计算的安全技术,例如数据脱敏(Data Masking)和差分隐私(Differential Privacy)[2],被扰动、覆盖的数据源很容易在数据库的任一流程节点被截获恢复。使用不流出数据源的技术方案同样也不能高枕无忧。以Google率先提出的联邦学习(Federated Learning)为例,原始数据只停留在本地进行模型训练,该模型是无法逃避投毒和对抗攻击的。隐私技术的机器学习弱点一旦被击破,其致力于保护的数据安全就是纸上谈兵。
从数据垄断的角度来说,隐私计算本身可以用来监督企业是否履行了数据安全义务,但是隐私计算的模型搭建平台是一个公司主体,其处在数据全生命周期的核心优势地位,掌握着破译数据的关键密码。越是迫切需要隐私计算的领域,例如政府、金融等,越对数据的保护程度具有高期待高要求,他们数据的战略价值和商业价值也是极为诱人的。因为隐私计算行业不具备有针对性的法律适用,隐私计算的模型控制者凭借着其技术壁垒,可以在隐匿自己的同时,调动数据为自己所用,或者为了不正当竞争而出卖商业秘密。轻者侵犯个人隐私和信息安全,严重者则会危害国家安全和商业秩序。并且出卖数据模型是一种市场行为,监管者并不能及时发现连带的隐私权侵权问题,只能在数据泄露之后补救,十分被动。
(二)数据所有权模糊
隐私计算行业方兴未艾,源其背后巨大的商业利益的推动,包括隐私计算技术本身的专利价值以及数据源通过隐私计算创造的新的数据价值,对后者的追求更是该项技术发展的主要动力。隐私计算又是一个多方参与的过程,包括了数据提供者、隐私计算模型搭建者、输出数据者和数据使用者等主体。但是数据的无形性令数据价值难以在数据库全生命周期的每个节点得到清晰量化;数据的可复制性意味着数据占有者并不当然拥有所有权;原始数据和机器学习的独特性令创造的数据不等同于传统的智力成果。由此,在可以获得庞大经济利益的预期下,每个主体都有理由去主张自己是该数据的所有权人。隐私计算下数据要素的所有权归属问题,并没有在全社会形成共识。此外,涉足隐私计算行业的既有正在等待融资的初创科技公司,也有腾讯这样的互联网巨头,各个技术机构对技术的掌握程度不一样,对数据要素质量的要求也不一样。即便是掌握隐私计算技术的企业之间合作,也很难提供公正、合理又令人满意的分配方案。
如果不能确定隐私计算中的数据所有权,伴随着隐私计算产业的高速发展,司法实践中将会出现大量的数据确权案件,会增加基层法院的办案压力,挤压其他司法案件的司法资源。并且因为权利不明晰,判决将会缺乏可参考的法律依据,法官的释法说理就变得至关重要。
(三)数据主体行权难
《网络安全法》第四十二条规定:获取、使用和处理个人信息,需要以个人知情并且同意为基本原则,信息处理者不得未经同意,向他人非法提供其个人信息,但是《民法典》第一千零三十八条特别提到:经过加工无法识别特定个人且不能复原的除外。隐私计算的形式本身就是一种过程性的加密更改,具备“可用不可见”特性,被加密后的数据,是否符合法律规定的无法识别且不能复原的特性,依赖技术鉴定。个人信息通过隐私计算后,数据一半说真话,一半说假话,一旦披上了隐私计算的伪装,信息泄露就无法被个人识破,或者被个人识破的可预见成本很高。在不可见的数据加密流通范围里,抓取个人信息是没有经过个人授权同意的,隐私计算又可能会变成侵犯隐私权的新型手段。
如果面临个人信息侵权,个人在隐私计算技术公司面前是没有任何优势的。一方面,技术壁垒提高了个人的取证举证难度,增加了诉讼时间成本;另一方面,由于个人隐私信息泄露不可逆的特点,个人即使胜诉也只能得到侵权数据平台的赔礼道歉或者经济赔偿,仍然无法从根本上缓解隐私泄露的痛苦。
三、我国隐私计算的法律规制方法
(一)完善法律法规规制
隐私计算的首要任务,便是明确隐私计算技术的适用范围和隐私计算数据的性质。我国《个人信息保护法》中说明,经过“匿名化”的数据不再是个人信息,不再受《个人信息保护法》保护。可见,匿名化是免除个人信息法律保护的手段。同时,《个人信息保护法》对个人信息的“去标识化”和“匿名化”作了区分,“匿名化”比之前者,更加强调信息处理后不能复原的特性。在我国的立法语境下,匿名化存在着模糊地带,即使是无法识别的数据,其还原方式也掌握在数据控制者手中,数据无法复原的具体要求有多种解释,从根本上说不存在完全无法复原的匿名化数据。
通过隐私计算技术生成的数据,应当符合个人信息经过处理后绝对无法识别和还原的要求。如果只是暂时无法识别,则还是应当属于个人信息的范畴,仍然需要通过《个人信息保护法》加以规制。通过完善相应的法律法规,才能对数据“绝对无法复原”的类型进行界定,对利用技术伪装成不能复原的数据进行精准打击。同时在隐私计算技术中处理个人信息必须按照《个人信息保护法》的要求,履行知情同意的义务。通过隐私技术处理信息,要始终和使用目的相符,严厉惩罚出卖隐私计算模型的行为。最后,要持续对隐私计算的匿名化效果进行追踪,因为科技随着时间进步,其攻击数据方的能力正在增强,法律法规要重新评估数据安全风险,并和可接受的风险阈值进行比较,适时加以更新。
(二)统一隐私计算技术的标准
在数字经济的背景下,技术的发展往往领先于立法。针对不同级别的数据安全和不同阶段的数据生命周期,需要有不同的安全保护要求和标准。但是对于这些要求标准,如何实现统一一直是行业内重点讨论的议题。基于法律的谦抑性和稳定性的要求,我们无法对所有技术细节进行分类。但是隐私计算技术的合规流程、产品责任等问题仍然需要统一标准,构建隐私计算技术行业的统一标准、保障隐私计算技术在法律的轨道上有序迈进是势在必行的。隐私计算统一标准承载了数据合规和行业发展的希望,建议通信行业协会通过详尽的市场和技术调查,分析隐私计算技术不同运用领域的数据流通特点、数据保护程度和数据风险等级,根据调查结果出具一份统一的隐私计算技术行业标准,达到通用性和指导性的目标,可以满足不同领域数据库需要的隐私计算方案。并且,可以将该方案递交国务院,研讨制订政策或者法律的可行性。
(三)创新个人信息侵权案件的举证机制
第一,推动建立证明妨碍制度[3]。证明妨碍是指破坏证据者必须承担不利于其自身的推定,这个词语最早来源于拉丁语。现代证明妨碍制度在英美等国已经发展成熟,我国的理论研究虽有涉及,但是和妨碍民事诉讼行为并无区分。在“可用不可见”的隐私计算中,个人侵权案件应当提高数据使用者、处理者的注意义务,在隐私计算、数据处理中保存过程性不可见的内容,如果之后其在诉讼中表明自己疏于保存证据,应当承担不利的诉讼后果。
第二,加强人民法院在个人信息侵权案件中的举证责任。民事诉讼实践中人民法院往往承担补充性的举证责任,而个人信息侵权案件的当事人承担的举证责任明显过重。一方面建议优化分配司法部门的举证责任,在个人信息侵权案件中罗列可以申请法院调查取证的具体方案;另一方面,构建社会多元化的取证方式,提高个人的举证能力。例如,采用合法的技术调查机构,为当事人调查提供专业化的渠道和规范的办法,以促进个人信息侵权案件的收据证据行为在法治的轨道上实施。
四、结语
隐私计算技术建立起了释放数据价值和保障数据安全的桥梁,然而我国在隐私计算方面的研究深度和广度相对较低,无论是技术保护还是法律保护,都存在一定的不足。完善隐私计算的法律规制,不仅能规范实施隐私计算的风险治理,也能为隐私计算行业指明发展方向,最大限度地发挥其隐私保护的优势。后续要积极探索隐私计算的技术边界和法律治理,为促进数据要素的流通提供帮助,为维系数据信息安全奠定坚实的基础。
参考文献
[1]李凤华,李晖,贾焰,等.隐私计算研究范畴及发展趋势[J].通信学报,2016,37(4):1-11.
[2]安国平.“隐私计算”四大技术路径解析[EB/OL].经济参考网.(2021-09-06)[2023-05-12].http://www.jjckb.cn/2021-09/06/c_1310171566.htm.
[3]高长思.民事诉讼当事人举证困难及其克服[EB/OL].中国法院网.(2010-04-20)[2023-05-25].https://www.chinacourtorg/article/detail/2010/04/id/405175.shtml.
