打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
​信息科技负外部性隐私伦理风险的治理


来源:科技导报
作者:毛牧然、董晓梅

遵循《关于加强科技伦理治理的意见》所提出的伦理先行、加强源头治理的治理要求、加强科技伦理治理制度保障的意见,针对去匿名化、管理不善、知情同意失效、群体隐私侵权所带来的4种处于立法保护空白状态的信息科技负外部性隐私伦理风险问题,提出并论证了“信息科技客体分别与信息科技主体认识能力局限性和片面价值观相融合是信息科技负外部性隐私伦理风险的两方面成因”这一观点,在成因分析的基础上,提出了3项能够从源头予以治理的制度保障措施,即个人信息保护基金制度、个人信息集体管理制度以及隐私保护设计及其制度保障措施。

《关于加强科技伦理治理的意见》(下文简称《意见》)的出台,凸显了科技伦理风险治理的重要性,下一步需将较为原则性的要求与意见予以深入阐发并落到实处。本研究遵循《意见》所提出的相关要求与意见,研讨了信息科技负外部性隐私伦理风险的表现形式、成因与治理措施问题。

问题的提出


     


舍恩伯格与库克耶指出:“在大数据时代,不管是告知与许可、模糊化还是匿名化,这三大隐私保护策略都失效了。”进而提出“抑制大数据带来的风险——需要全新的制度规范,而不是修改原有规范的适用范围”这一观点。弗洛里迪阐述了大数据技术所带来的群体隐私这类新型的隐私伦理风险挑战以及美国集体诉讼和欧洲消费者组织代表群体起诉的隐私保护与治理经验。上述研究提出新型隐私伦理风险挑战以及需要全新制度予以规范启发笔者,以能够治理新型隐私伦理风险的新的制度保障措施为选题开展研究。2021年8月20日《个人信息保护法》经第13届全国人民代表大会常务委员会第30次会议通过后,仍有一些信息科技负外部性隐私伦理风险问题无法得到解决,本研究力求提出新的制度保障措施来治理目前法律法规还未予以规范的负外部性隐私伦理风险问题。


信息科技负外部性隐私伦理风险的概念与表现形式


     


01 信息科技负外部性隐私伦理风险概念的界定

有观点认为负外部性指的是“生产活动或消费活动导致其他组织产生了无法补偿的成本。另有观点认为:“当一个人从事一种影响旁观者福利并对这种影响既不付报酬又不得报酬的活动时,就产生了外部性(externality)。如果对旁观者的影响是不利的,就称为负外部性。”综上所述,负外部性是指主体的活动给其他主体的福利带来了不利影响而又没有给予其他主体补偿的社会现象。《个人信息保护法》第13条规定,除该条第1款第2项至第7项规定的情形以外,处理个人信息需要取得个人的同意;第29条规定,处理敏感个人信息应当取得个人的单独同意,法律、行政法规规定处理敏感个人信息应当取得书面同意的,从其规定。根据上述规定,如果企业和个人有合同关系,出现个人信息处理方面的纠纷,个人可以以违约或侵权(超出合同约定范围的处理)之诉来维权,并据此获得赔偿。由此可以界定本研究所探讨的信息科技负外部性隐私伦理风险,是指无法依据现有法律法规获得补偿、处于现有立法未予规范状态的隐私侵权风险问题。

02 4种信息科技负外部性隐私伦理风险的表现形式

1)去匿名化所带来的负外部性隐私伦理风险问题。根据《个人信息保护法》第4条第1款的规定,匿名化处理后的个人信息不在该法保护的范围之内。由此可见,匿名化处理后的个人信息,其隐私侵权伦理风险,无法依据《个人信息保护法》获得救济。但这种情况下还有隐私侵权伦理风险问题,是因为利用技术手段对匿名化的一般个人信息也可以去匿名化,例如人工智能就擅长从看似无关的数据中提取关系,从而重新识别匿名化的数据,也可以据此获得个人的敏感个人信息。此外,由于为获取私利而采取的秘密再识别行为(reidentification)难以被发现,禁止再识别的各种法律措施的效力也十分有限,匿名化处理后的个人信息还会面临侵权风险的负外部性问题。

2)管理不善所带来的负外部性隐私伦理风险问题。《个人信息保护法》第13条第1款第2项至第7项规定了无需取得个人同意而处理个人信息的情形,但由于不能完全避免的管理漏洞,或多或少还会带来隐私伦理风险问题。徐玉玉案就能说明这一点,该案被告人杜某某轻易攻破了“山东省2016高考网上报名信息系统”所在网站,获取了全省考生的个人信息,并对外出售牟利。这表明:技术防范不严、存在管理漏洞等管理方面的不足或多或少会带来负外部性隐私伦理风险问题。

3)由知情同意失效所带来的负外部性隐私伦理风险问题。舍恩伯格与库克耶以谷歌使用检索词预测流感为例指出了知情同意保护策略以及相应保护制度的失效问题,认为必须征得数亿用户的同意,就算没有技术障碍,也很难有公司能负担得起这样的人力物力支出。实践中,默示化用户授权也会带来知情同意的失效问题。合规数据交易需获得用户在采集环节和交易环节的两次授权、成本高,提高了数据交易的门槛。为降低成本,企业往往通过隐私政策中默示化的格式合同条款来获得个人的知情同意,所谓的授权同意决定是在一知半解的状况下草率作出,以“告知”为中心的隐私政策设计难以实现用户的“知情”,更可能异化为互联网平台的“避风港”。在监管乏力的情况下,个人信息通常得不到有效保护,所以这种情况下的个人信息保护不力就有必要归入负外部性隐私伦理风险问题。

4)处于立法保护空白状态的群体隐私侵权所带来的负外部性隐私伦理风险问题。有研究指出,群体隐私有时可以简化为群体成员的个体隐私,有时则必须是某一群体的隐私。所谓“群体隐私简化为个体隐私”,是指群体隐私可以借助保护个体隐私得到保护,反之亦然,如在公共浴室里安装偷拍设备,群体隐私可以借助保护个体隐私得到保护,反之亦然。所谓“必须是某一群体的隐私”是指需要对群体隐私提供单独的保护,试举例说明之,例如《个人信息保护法》第4条第1款规定,匿名化处理后的个人信息不在该法保护的范围之内,在这种情况下,处于匿名化、不能被识别的一些人被算法纳入了一个可以接受高价推销的线上消费群体,如爱美、愿意出高价购买某品牌服装的年轻女性线上消费群体,即使该群体成员并不知道自己被划分到了该群体(即没有得到她们的授权),该群体里的女性也没有遭受到个体隐私侵权,但是她们在线上消费活动中却遭受了群体隐私侵权,其中包括人格权侵权(具体指知情权和自主选择决定权被侵权而使人格尊严遭受损害)和财产权侵权(因支付了更高的价款而遭受了财产损失)。所以,不构成个体隐私侵权但构成群体隐私侵权的负效应问题也是比较明显的负外部性隐私伦理风险问题。


科技及信息科技负外部性隐私伦理风险的成因分析


     


01 科技负外部性伦理风险的成因分析

从现代西方哲学很多学派都主张的主客统一本体论来看,科技创新成果相对于物自体而言就是处于现象层面的经验,这个经验就是具有自然属性的科技客体(指由物质成分和/或知识成分所组成的科技成果,如电脑就是一种包含物质成分和知识成分的科技成果)和具有社会属性的科技主体 (主要包括科技创新者和科技应用者)的认知与价值观相互融合的主客体统一的人工物或认识成果。由马克思主义的辩证唯物主义原理可知,人类通过不懈的实践活动能够通过相对真理而无限接近绝对真理,笔者认为,相对真理既包含有真象成分又包含有假象成分,是真象成分和假象成分的复合体,比如地心说和日心说都包含有真象成分和假象成分,都是这两种成分的复合体;由于人类认识能力的局限性以及价值观的片面性使得主客体统一的人工物或认识成果往往都是真象成分和假象成分的复合体。

基于科技成果是包含真象成分和假象成分的主客体统一的人工物或认识成果,可以推知:真象成分有助于正向价值实现而假象成分易于导致负向价值出现,由此也让我们看到了科技价值的二重性以及科技负外部性伦理风险的成因。

综上所述,科技负外部性伦理风险的产生包括两个可能并列也可能相互交织的原因:科技客体和科技主体的有限认知相融合创造人工物或认识成果是产生科技负外部性伦理风险的一个方面的原因;科技客体和科技主体片面的价值观相融合创造人工物或认识成果是产生科技负外部性伦理风险的另一个方面的原因。概而言之,科技客体分别与科技主体认识能力局限性和片面价值观相融合是科技负外部性伦理风险的两方面成因。这一理论观点为《关于加强科技伦理治理的意见》伦理先行、源头治理、负责任创新等治理要求提供了理论基础和解决路径,即提升科技主体认识能力和克服其片面的价值观是实现上述治理要求的解决路径。

02 信息科技负外部性隐私伦理风险的成因分析

根据上述观点,可以推知:信息科技客体分别与信息科技主体认识能力局限性和片面价值观相融合是信息科技负外部性隐私伦理风险的两方面成因。可以以人脸识别技术所带来的信息隐私伦理风险问题为例来说明信息科技负外部性隐私伦理风险的成因。如果没有设计防止恶意滥用的追踪核查功能,致使人脸敏感信息易于被恶意滥用而使信息隐私面临侵权风险问题,就以信息科技客体与信息科技主体认识能力局限性相融合为成因;如果片面追求经济利益或社会管理方面的便利而忽视人本利益而使信息隐私面临侵权的风险,就以信息科技客体与信息科技主体片面价值观相融合为成因。


信息科技负外部性隐私伦理风险的治理措施


     


01 建立与适用个人信息保护基金制度

1、建立个人信息保护基金制度在认识论层面的5个理论依据

1)个人信息权益兼具人格权和财产权的双重属性。中国《民法典》和《个人信息保护法》对自然人的个人信息权益做出了较为具体性的规定,据此能够明确的是:隐私权和个人信息权益(二者存在保护范围上的交叉关系)具有人格权的属性。当前个人信息的财产属性还没有得到中国立法的确认。“目前数据确权争议最大的问题为个人数据所有权应该赋予消费者还是数据持有企业”,对这一问题有4种观点,第一种观点认为“消费者或企业任何一方对数据拥有排他性产权都不会带来有效的隐私保护和数据要素开发利用”,第二种观点认为个人数据财产性权利应该赋予企业,第三种观点认为个人数据财产性权利应该赋予个人,第四种观点认为个人和企业都应赋予对个人数据的财产性权利。美国《加州消费者隐私法》(CCPA)开了立法承认个人信息财产价值的先河,该法规定:“企业可以为个人信息的收集、销售、共享或保留提供经济激励,包括向消费者支付报酬”。笔者认同立法赋予个人以个人信息财产性权利的观点,理由是:个人的个人信息财产权是源头和根本,企业只有得到个人的授权才能利用个人信息创造价值,数字经济才能繁荣发展。

2)个人信息侵权属于适合政府依法解决的公共物品的负外部性问题。政府依法解决的负外部性问题通常是生产和消费对公共资源(无排他性但有竞争性)和公共物品(既无排他性又无竞争性)的负效应问题。个人信息可以被任何企业所使用而不会造成损耗,也可以说一个企业对某个个人信息的使用不会减少其他企业对这个个人信息的使用,个人信息没有竞争性;任何企业都可以单独得到个人的授权而获取个人信息,也可以说先得到授权的企业不能阻止其他企业单独得到个人的授权而获取个人信息,单独的个人信息也没有排他性,所以,个人信息属于公共物品,个人信息侵权也属于适合政府依法解决的公共物品的负外部性问题。借鉴政府筹资解决公共物品(国防、基础研究、反贫困等)问题的公共政策,对于以上列举的4种负外部性隐私伦理风险问题,政府可以建立个人信息保护基金制度,由在源头获利的市场主体依法提取一定比例的保险金并纳入个人信息保护基金的治理措施来予以应对。

3)保险制度。个人信息保护基金制度适用于个人信息对盈利的贡献不大并且难以估价这类情况,保险费实质上是支付给个人的报酬,报酬支付给个人很少,以积少成多的方式来救济众多个人中某些受到侵权损害个人所遭受的损失比较有意义。这样看来,虽然适用于所有个人,但是适用对象往往是全体中的个别人,如侵权人对个别被害人的赔偿不足额时由基金予以补足,所以,此项制度具有保险制度的性质,可以借鉴政府通过矫正税来使外部性内部化的公共政策解决个人信息侵权的负外部性问题。之所以是借鉴矫正税而不是以矫正税为依据,是因为矫正税的作用在于减少(如纸张)生产和消费,而不直接拿矫正税应对环境污染问题,而保险费是用来直接应对个人信息侵权问题的。

4)权利义务对等原则。包括信息科技在内的所有科技成果在给社会带来正效应的同时往往都会带来负效应问题(其中包括负外部性隐私伦理风险问题),企业利用个人信息获取经济利益带来正向价值实现的同时,也会带来隐私伦理风险问题,也要为此承担社会责任,这才符合权利义务对等原则。根据经济学关于企业有承担负外部性社会成本义务的观点,企业支付的保险费就是其所承担的负外部性社会成本。

5)技术社会控制的困境。本研究将英国技术哲学家大卫·科林格里奇技术社会控制困境的观点概括为:一项技术发展和扩散的早期虽然容易控制,但是由于难以预见或评估其对社会的负面影响或其程度以及为了避免实施控制会导致对技术发展所带来利益的放弃,人们无法保证能够有效控制它的发展;而当该项技术得到充分的发展与扩散,以致其社会负面影响变得明显时,它就不再容易控制了,控制可能仍然是可能的,但它已经变得非常困难、昂贵和缓慢。结合上文所述的“信息科技客体分别与信息科技主体认识能力局限性和片面价值观相融合是信息科技负外部性隐私伦理风险的两方面成因”的观点来看,在某项包含个人信息的信息技术发展的早期,企业或政府管理部门为了经济利益或管理的便利而难以预见或忽视公众的隐私权益,为隐私权益受损的伦理风险埋下了祸根,而在该项信息技术发展的后期,随着隐私权益受损实际情况的出现,隐私伦理风险开始变得明显,而此时较之早期,控制的成本较高、控制的难度较大,所以,将这一理论根据与上文提出的4项理论根据相结合,由政府部门建立个人信息保护基金制度、向本应在早期履行相应义务的获益方筹集保险经费来应对后期控制成本较高、控制难度较大的隐私伦理风险问题,使个人的权益得以维护是很有必要的。

2、适用个人信息保护基金制度在方法论层面的实操建议

对于营利性使用个人信息(非营利性使用个人信息,不会带来利润,无需交纳保险费),在不便于依据许可合同处理个人信息的情况下,需要由相关管理部门依法在营利额中提取一定比例的保险费纳入个人信息保护基金来防范信息科技负外部性隐私伦理风险。

个人信息保护基金可用于补足侵权赔偿的不足额部分、资助法律援助帮助个人或群体维权、资助科研项目、资助宣传教育培训等与个人信息保护相关的公益活动。

为了督促企业能强化保护并适当合理使用个人信息,保险金交纳数额这一问题可以根据企业的个人信息收集处理种类和数量、企业处理个人信息的获利情况、对个人信息采取保护措施的强弱、个人信息的后续开发情况、对个人信息是否进行许可交易等不同情况通过听证会的方式来解决。

根据《个人信息保护法》第66条,管理部门有权依法对未履行个人信息保护义务的企业处以罚款,罚款额中应该包括企业应当承担的个人信息侵权所带来的外部成本,而需要作为外部成本的罚款中的这部分款项就需要纳入个人信息保护基金,以强化对个人信息的保护。

可以结合案例来探讨这一保护制度的可取之处以及方法论层面的实操问题。A制药公司向B搜索引擎公司购买B公司收集的用户网页浏览情况的数据库和分析结果用于药物研发和营销。B公司收集分析用户个人信息用于预测流感,因为是公益目的,参照《个人信息保护法》第13条第1款第4项无需取得个人同意的规定,无需取得用户授权,但是可以将数据库和分析结果提供给A公司牟利,所以,需要交纳保险费并纳入个人信息保护基金,以应对信息科技负外部性隐私伦理风险问题。A公司以营利为目的使用数据库和分析结果,采取和众多用户分别签订许可合同的方式不太可行,因为用户众多成本过大,这样,交纳保险费并纳入个人信息保护基金,以应对负外部性隐私伦理风险问题,就成为比较可行的保护方式。

02 建立与适用个人信息集体管理制度

1、建立个人信息集体管理制度在认识论层面的3个理论依据

1)负责任创新利益相关者参与理论。上文“信息科技客体分别与信息科技主体认识能力局限性和片面价值观相融合是信息科技负外部性隐私伦理风险的两方面成因”这一理论观点(存在个人与个人信息处理者价值观博弈的情况)和负责任创新利益相关者参与理论中有关公民社会组织(包含个人信息集体管理组织的上位概念)参与的论述为个人信息集体管理制度提供了理论依据。代表个人并帮助其实现隐私价值诉求的个人信息集体管理组织和秉持经济、政治等方面价值诉求的企业、政府等其他主体参与到个人信息处理决策(一般包含在信息科技项目之中)的博弈之中,就是上述理论依据在实践中的体现。

2)将数据视为劳动观。艾瑞塔伊波拉(Arrieta-Ibarra)等主张将数据视为劳动观(data as labor),而反对将数据视为资本观(data as capital);并进一步指出,数据劳动者(data laborers)可以组织数据工会(data labor union)与数据商进行集体性谈判,能够完成个人用户难以做到的事情,比如罢工,此外,工会还可以保证数据质量并提升用户获利的潜力。数据工会和笔者所阐述的个人信息集体管理组织是类似的,是提升个人隐私权维权能力的重要方式之一。

3)科斯第二定律。根据相关教材对科斯第二定律的理解:“构建的法律,应该消除私人谈判的障碍,从而使交易成本最小化。”亦即构建法律制度要尽量减少交易成本,使社会资源尽量得到合理的配置。建立个人信息集体管理制度,个人通过授权集体管理组织来行使和保护个人信息权益,企业无需和众多个人进行交涉,比如由集体管理组织代表个人参与个人信息侵权纠纷的集体诉讼,能够降低企业和个人的交易成本,对企业和个人都有利,也能使社会资源得到较为合理的配置。

2、适用个人信息集体管理制度在方法论层面的实操建议

有研究指出,负责任的研究和创新(responsible research and innovation)能够为包括数据保护和隐私问题在内的伦理和社会问题提供十分广泛的方法,其中包括访谈、网上调查、德尔菲研究、利益相关者委员会等。笔者认为,该研究所提到的利益相关者委员会以及下文所提到的消费者协会都属于个人信息集体管理组织。

个人信息集体管理组织属于非盈利性机构,可以依据个人的委托或者依照法律的规定,以自己的名义向个人信息行政监管机构提起申诉或向法院提起诉讼,追究违法的个人信息处理者及其他侵权人的法律责任,以维护个人的合法利益;也可以受个人的委托,与企业签订处理个人信息的许可合同,监督个人信息的处理情况,收取许可费,在扣除约定的管理费之后,转付给个人或者纳入个人信息保护基金。可见,个人信息集体管理制度和许可合同制度以及个人信息保护基金制度是相关的,可以根据所管理的个人信息的类型,依据约定或法律规定,将收取的许可费转付给个人或者纳入个人信息保护基金。

下一步,需要探讨个人信息集体管理组织的试点筹建,制定、不断完善相关规范开展试运行,进而在积累经验的基础上由国务院制定《个人信息集体管理组织条例》,对个人信息集体管理组织的性质、目的、成立与终止的条件和程序、组织机构和个人、监管机构等处理相互关系中所享有的权利和所要承担的义务(可以将权利和义务写进个人信息集体管理组织的章程之中)等事项做出较为明确的规定。

03 隐私保护设计及其制度保障措施

1、隐私保护设计在认识论层面的2个理论依据

1)技术社会控制的困境。根据科林格里奇关于技术社会控制困境的上述观点能够认识到,较之晚期的管控,在早期的技术设计与研发阶段管控隐私伦理风险,社会成本较低、效率也较高,这为在信息技术产品中嵌入隐私保护设计提供了理论依据。

2)负责任创新。将上文所提出的“科技客体分别与科技主体认识能力局限性和片面价值观相融合是科技负外部性伦理风险的两方面成因”理论观点中的相关内容,与《关于加强科技伦理治理的意见》所倡导的负责任创新治理要求相结合,笔者认为,负责任创新可以理解为是将科技客体与科技主体认知、科技客体与科技主体价值观这两个方面融合起来,特别强调这一过程中“创新”的科技方法与“负责任”的伦理方法相结合,兼顾科技正效应尽力实现与科技负效应尽量防控的创新方式。笔者对负责任创新的理解也可看作是隐私保护设计在认识论层面的理论依据之一,因为隐私保护设计将科技客体与科技主体关于隐私保护的认知与价值诉求相结合,属于有利于隐私保护的负责任创新。

2、隐私保护设计在方法论层面的实操建议与制度保障措施

《关于加强科技伦理治理的意见》提出伦理先行的治理要求,具体要求如下:“加强源头治理,注重预防,将科技伦理要求贯穿科学研究、技术开发等科技活动全过程,促进科技活动与科技伦理协调发展、良性互动,实现负责任的创新。”隐私保护设计无疑是落实这一治理要求的实践方式,希望更多的技术研发人员能够认识到隐私保护设计属于科技活动与科技伦理协调发展、良性互动,能够实现源头治理的负责任创新方式之一,并积极将其落实到更广阔的技术研发实践之中。

当前隐私保护设计嵌入信息技术产品在实践中已有一定程度的落实。本文第二作者是《一种带有差分隐私的生成式对抗网络推荐方法》(专利号:ZL202110086346.8)的专利权人,可以以该专利技术为例探讨相关问题。该专利属于商业方法专利,可以视为是一种利用用户的个人数据(上网浏览、购物、填写的个人信息等)为用户推荐商品并且保护用户隐私的软件,该软件利用了差分隐私的技术手段(主要是对个人数据加上噪声以防止个人身份识别),使商家在利用该商业方法软件给不同用户推荐符合其个性的商品时不会侵犯用户的隐私信息。研究这一隐私保护设计的实例能够发现如下问题:(1)较之嵌入隐私保护设计的信息产品,没有嵌入隐私保护设计的信息产品,无法避免或会加剧信息科技负外部性隐私伦理风险问题。(2)在产品中嵌入隐私保护设计,增加了信息产品的设计与研制成本,较之没有嵌入隐私保护设计的信息产品,带来了售价较高缺乏竞争力的问题。(3)在产品中嵌入隐私保护设计,使信息产品所追求的功能 (比如推荐商品的功能)有所降低,较之没有嵌入隐私保护设计的信息产品,也有竞争力减弱的问题。

针对上述问题,遵循《关于加强科技伦理治理的意见》中有关加强科技伦理治理制度保障的意见,需要探讨隐私保护设计的制度化或法治化的保障措施,对此,提出如下建议:(1)可以立法要求包含一定数量和质量(根据敏感或一般个人信息及其组合来确定质量)个人信息的信息产品(如推荐商品或服务的软件产品)要有保护隐私的设计,这一措施有利于应对没有嵌入隐私保护设计的信息产品无法避免或会加剧信息科技负外部性隐私伦理风险问题以及在产品中嵌入隐私保护设计所导致的竞争力减弱问题。(2)无论是否有法可依,行业协会应该建议包含一定数量和质量个人信息的信息产品,要嵌入保护隐私的设计,并在同类产品排名时,将有保护隐私设计的信息产品排名靠前,借助市场的力量来倡导隐私保护,这一措施也有利于应对在产品中嵌入隐私保护设计所导致的竞争力减弱问题。(3)可以立法要求未运用隐私保护设计的市场主体交纳保险费并纳入个人信息保护基金,使运用和未运用隐私保护设计的市场主体在竞争中处于对等地位,不使前者因为兼顾隐私权益而利益受损。


结论


     


本研究在科技及信息科技负外部性隐私伦理风险成因分析方面的研究成果对于深化科技异化理论研究有参考价值,本研究阐述的个人信息保护基金制度、个人信息集体管理制度以及隐私保护设计及其制度保障措施,对于完善、制定相关法律、法规、政策等具有借鉴意义。伴随信息科技的发展,信息科技负外部性隐私伦理风险还会出现新的表现形式和问题,从科技伦理治理视角对此展开的研究也将不断与时俱进。

作者简介:毛牧然,东北大学马克思主义学院,教授,研究方向为科技哲学、科技与社会。
原文发表于《科技导报》2023年第7期。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
人工智能治理要坚持两手抓
期刊研究 | ChatGPT对学术期刊的影响及应对策略研究
算法的“原罪”?
微信更新隐私保护条款:不同意无法登录
个人隐私透明,我们该如何应对大数据下的隐私安全?
用户协议与隐私保护
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服