打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
刘伟|“人性秩序”还是“机器秩序”:数字治理中的正义修复——基于技术政治性视角的剖析


“人性秩序”还是“机器秩序”:
数字治理中的正义修复
——基于技术政治性视角的剖析


刘伟,中山大学马克思主义学院博士研究生,广东省社会科学研究基地—国内安全与社会稳定研究中心研究员。
网络化、数字化、智能化的加速融合,人类社会已全面进入了数字时代。技术治理在表达制度与改造制度的同时,在根本上形塑着国家治理形态,同时也潜藏着差异化下的公平陷阱与正义鸿沟。通过基于技术政治性视角对数字治理技术双面性的剖析,阐述了技术发展带来的“改革红利”与公平正义约束之间的关系,论证了将正义性与平等性纳入技术治理立场的紧迫性,构建技术场域中“国家理性”的必要性。结合“解构—建构”的分析思路得出数字时代的秩序应该是“人性秩序”而不是“机器秩序”,通过打造技术肩挑服务与秩序的治理模式,可以实现“技术—服务—秩序”三维互动,引导“技术治理”向“技术善治”的转型,实现数字治理中的正义修复,促进社会的包容性、平等性发展。
数字鸿沟;治理陷阱;技术政治;国家理性;正义修复

数字化(digitalization)正以不可逆转之势深刻地改变着人类社会形态,它改变了人类生产生活方式,提高了社会治理和服务的效能,但也给平等性的公共服务以及包容性的社会发展带来了诸多新的风险与挑战。伴随着数字应用技术的普及,使用障碍、隐私安全、社会排斥、正义缺失、技术过度使用等问题开始凸显,数字空间生产带来的正义侵蚀也在不断演化,迅捷的技术发展与亦步亦趋的制度建设之间的治理缝隙正在加大,社会公众对技术治理的政治性和正义性产生了新的反思。如何平衡技术发展带来的“改革红利”与其外部性约束之间的关系?如何看待数字技术发展和平衡治理技术化的一体两面?基于数字技术的治理是否应该有公权力边界?如何破解“只见数据不见人”困境,并将人的主体性带回治理?在数字治理过度泛滥与规则约束弱化的今天,让数字治理实现平等包容的应用与发展,这将是使数字技术具备政治正义和人文价值的再造,并在制度上对该问题予以回应需要思考的重要命题。

一、数字鸿沟的形成与异化


(一)使用障碍造成的非正义性社会排斥

由于人体功能的差异性,众多数字治理技术及数字智能设备产品的推广应用上也存在着普及性使用盲区,就其本身的使用功能上很难做到无差异化使用。第45次《中国互联网络发展状况统计报告》显示:截至2020年3月,中国网民规模达9.04亿人,互联网普及率达64.5%,手机上网比例为99.3%,但60岁及以上网民占比仅为6.7%。根据国家人口统计最新数据:截至2020年底,全国60岁以上老年人口约为2.64亿,占总人口比例约为18.7%,独居和空巢老年人口已达1.18亿左右。根据这两项数据推算,约有上亿老年人无法正常或者独立使用智能网络设备,这也形成了脱离于智能与网络之外的“原始性”人群。一方面,老年人群体受到身体自然退化造成的自然感官和记忆力衰退的掣肘,加之自身对信息化工具的接受和学习意愿较低,不仅使他们在日常生活中无法享受到数字治理与服务的便利,反而因为自身的功能性使用障碍造成了非正义性社会排斥现象的发生。另一方面,数字设备和服务的制造商为追逐市场利益,在设计理念和产品功能上过分迎合青年人主力消费群体的喜好,在产品设计上缺乏对老年群体身体机能、用户习惯和认知特点的考虑,使得数字智能产品缺乏适老化改造,加剧了老年人群体在使用上的功能性制约。同时,对于部分视力、听力、手指功能性障碍的残疾人群体,更是形成了在使用上的“生存鸿沟”,导致其在数字时代中被孤立。总之,弱势群体在这场治理技术变革的浪潮中既无法表达出利益诉求,也无法构建空间正义,变成隐形“失声群体”,并且随着老龄人口数量的日益增长“,失声群体”面临的“数字鸿沟”问题只会是日益凸显。

(二)公共服务不自觉形成的技术依赖惯性

美国的“信息高速公路”、英国的“数字宪章”、日本的“超智能社会”、新加坡的“智慧国计划”,在很多发达国家数字化已成为打通经济社会运行堵点和提升公共服务最有效的手段。互联网、物联网、AI等数字技术向商业化应用加速发展的同时,公务服务领域也快速搭上数字技术的快车,实现了数字政府的构建。在这一过程中,政府在借力数字技术实现公共服务数字化转型的同时,虽然极大地提高了服务的便捷性和可及性,促进了公共服务的数字化和市场化的形成,但也产生了服务的不均衡和不公平等问题。公权力部门利用技术手段将组织行为演化为纯技术化的公共产品,为公共行政中单纯的技术主义立场提供了生长土壤,滋生了“数字权威主义”的发展。一方面,政务部门过分依赖数字设备服务,盲目地将数字设备全领域覆盖,致使部分老年人群体无法满足服务需要,导致公共服务的平等属性在降低;同时,行政部门的条块化切割形成了数据流通的“信息孤岛”,各个部门之间更是毫无效率地采集公民信息,不仅没有提升服务效率,反而降低了服务效率,形成“数据牢笼”。另一方面,部分商业机构不加节制地使用数字技术,漫无休止地进行个人信息采集以及缺乏人性化的服务,暴露了个人信息隐私安全的风险,反而大大降低了消费体验,这都是公共服务领域过度的数字技术依赖造成“技术负能”的直接体现。在这一过程中不仅潜藏着权力寻租、数字资源垄断、公共服务质量下降,以及信息安全泄露等风险,也致使服务提供者产生“懒政”思想,造成了网络行政场域中的“数字迷信”,甚至滋生了“数字官僚主义”“电子衙门”等现象。同时,政府监管责任的缺位会降低公共服务质量和均等化水平,甚至有可能形成新市场的垄断,这样只会加剧公众利益的不公平问题。

(三)算法“偏好”导致人类被资本“游牧”

数字治理抑或任何数字智能设备都必须依赖于数字算法来进行指令性的信息整合与输出,算法是实现对于差异化数字信息分析的一种演绎路径。但是,从人类熟练掌握、应用算法的那一刻起,算法思维就在潜移默化地改造人类的思维模式。数据和算法的价值特性并不是如马克斯·韦伯(Max Weber)所认为的那样价值中立,它不具备体会情感或者故意施加偏见的能力,但从一开始,数字图绘和算法治理就带有强烈的引导性目的。英国巴斯大学计算机系教授乔安娜·布赖森(Joanna Bryson)认为,“偏见,只是机器从数据中拾取的规律(regularity)而已”,它无法从使用者的心理状态和行为模式给出公正价值观的事实判断。算法实质上是一种物理工具,它貌似中立,但结果却呈现出强烈的价值观,早已渗透于现代社会日常生活各个触角的数字处理服务之中。在它看似“人性化”“私人定制”的表象背后,隐藏着一套操控手段,使得公布于众的数据真伪存疑。数字商品早已成为一种“异己的存在物”,反过来数字劳工又被数字平台公司的智能算法“设计与控制”,成为进一步奴役他们的工具。数字资源的获取方、操作方利用这些个体数据进行特征性分析,进而投放“个性化”的“偏好设置”数据,甚至“量身定制”地“服务诱导”,利用算法伪装收割消费者,让人类不知不觉间成为商业资本主义的猎物。算法具有不完全受制于数字资本的内生政治性,而这也正是技术哲学家兰登·维纳(Landon Wiener)在1980年所提出的“人造物是否具有政治性”问题的关键所在。算法扮演着利用数字信息科技将使用者“钩入”庞大的监控资本主义之中的角色,并且借助算法结果的科技理性外衣去使人信服这样的诱导性结果。在这背后技术不过是充当了资本利益的白手套,而隐藏其后的“看不见的手”正是资本。

二、“人性秩序”与“机器秩序”造成的价值冲突


“技术对人类生活的影响具有两面性”,技术方式的变革必然会导致社会形态的演变。技术方式的双重性体现在自然属性和社会属性的耦合,社会属性不仅具有技术经济价值,更重要的是它会产生社会秩序与伦理上的道德风险。同时,技术的社会性也同时具有两面性,一种以生产和赋权为特征,有助于提升生产力,增进社会福祉;另一种以侵入和约束为特征,使技术治理潜藏着系统的社会风险和政治风险,这两种特征是相互依存的。在数字化生产条件占主导地位的现代社会,整个社会生活表现为数据的巨大积聚(accumulation of data)。有生命的物质性的一切都离我们远去,变成了一种数字化(digitalization)。如今,数字治理的实现让每个人都被陷入数字网络之中。刘易斯·芒福德(Lewis Mumford)指出,现代技术已成为“巨机器”,其目标是权力与控制,“数据本身已成为重要的权力来源,但数据在很大程度上仍未得到管理”,形成技术场域下的社会秩序与意识形态的控制。只要生活在现代信息社会,无一人可以幸免。马克思认为现代资本主义生产关系让人们从温情脉脉的血缘家庭式关系中解放了出来,价值的等价交换不断冲刷着“人的本质是社会关系的总和”[7(]p193)这一价值理念,资本的强势与强权,重组了人与自身、人与人、人与社会之间的关系。如今这种“关系”正在“异化”并得到“强化”,只是这个生产关系的纽带由货币变成了数字,形成了一种新的“数据关系”。技术语言不加审视地“翻译”成为客观现实,甚至替代人类的判断。个体思考被控制,弱化人的存在价值,造成公共舆论的“巴尔干化”,公共议题的“分歧化”,社会价值凝聚的“空心化”,而且会逐渐损害无产阶级的社会团结与政治认同。这种技术层面的价值立场的偏差(bias)会容易发酵,直到形成实际的价值性歧视(discrimination),道德如何约束数字空间下的数字生产,数字技术到底是侵蚀了空间正义还是修复了空间正义,这已经成为数字时代不可回避的伦理议题。

制度包括观念、结构、实践和关系等层面,技术首先是进入制度之中,推动制度转化为治理效能,在转化过程中也会产生新角色、结构、实践、价值观和信念等。这些内容形成的综合效应,会改变、威胁、取代或者补充现有的组织、制度、行业内现有的规则,推动着制度的变迁。以信息技术为代表的数字治理技术的应用更是直接体现了技术治理的两个核心的目的:维护制度与改造秩序。技术是工具,规制工具的使用边界和方式是数字治理的重要内容,也是维护社会秩序的关键要素。一方面,数字技术的“所有者”维护着现有制度的合法性和稳定性,不管是企业还是政府,都试图运用数字技术的赋能特征来解决特定的社会问题,强调特定行为的利益目标和效果的最大化。另一方面,技术虽然是工具,但是这个工具如何使用,引致了价值理性和工具理性的张力与冲突。但这并不是由技术所决定的,而是依赖于治理主体的价值选择和政治立场,这也带来了治理主体秩序规划的正义性问题。因而,数字技术的普及促进了数字空间的形成与发展,数字技术在改造现有秩序的同时,也导致生产生活的现实性与物理性相脱节,必然会直接对物理空间下的社会秩序构成挑战。

如今,人文主义、法兰克福学派、文化批判论对人类社会被技术绑架的忧虑,米歇尔·福柯(Michel Foucault)对现代西方国家资本主义治理技术和生命政治的揭露,保守主义和后现代主义对国家现代化方案的不信任,都对技术的政治性提出了新的质疑。对一个合作有序的社会而言,技术从来都只是工具,对工具运用的规制才是决定技术影响社会秩序的关键因素。在数字智能充分发展的当下,“不可控性”是过去任何时代技术进步与发展都从未面对的新问题,过去没有考虑的“可能”已经逐渐演变为不可回避的“事实”。随着监控资本主义从虚拟世界逐步向现实世界渗透,整个社会本身也成了商业资本攫取和控制的对象,“技术已经成为染指人类社会历史发展根基的统摄性力量”。人工智能技术依托不断成熟和完善的海量数据训练、算法技术和算力资源已经展现出了惊艳世人的“潜能”,正在某些领域接管人类维持秩序的“权力之棒”,挑战人类存在的传统价值。这就需要以一种审慎乐观的态度对待技术治理所带来的秩序问题。福柯认为生命政治就是要以最少的经济、政治成本获得最大化的治理效果,这种方式遵循着效率最大化的功利主义逻辑。“经济行动”决定目标,而技术只是经济的“适当手段”,当技术工具被设定为资本的攫取手段,为了组织、引导和调整社会形成资产阶级所期望的秩序,再利用对技术的扩张实现社会阶层的融合,目的就是利用群体压力和计算确定性(Computational Certainty)取代政治与民主的诉求。正是由于技术应用开始弱化人的存在价值,才激发了我们不得不思考在治理过程中如何找回“人”的问题,其最终目的是探讨什么样的技术应用才是符合人类福祉的。值得注意的是,人类开始享受这种技术建构起来的“社会秩序”,反过来又对此无比担忧。人之所以有这种“失去”(需要被找回)的恐慌,究其根源是人类开始不适应技术应用所带来的自身角色的调整(人类不必“在场”的情景越来越多),抑或是不能接受将失去对“社会秩序”的完全掌控。由此带来新的行政集权和人际交往的病症。这也印证了福柯生命政治中的自我生产规范性力量功能与机制。显然,人类是期待“社会秩序”的权力仍然掌控在自己的手中。

不同于福柯以“社会屈从于人性”的观点,施瓦布(Schwab)则认为,信息时代的社会信息流正在构成全新的“社会—技术”基础设施。“技术变革给现行生产方式带来的阵痛和财富分配的不公,正义和谐的社会面临尖锐矛盾”。技术治理造成的社会问题可能并不止步于技术能否成功、如何应用等简单且清晰的固有命题,而是分散在社会公平、权利保护、制度建设等错综复杂的议题之中。如果在技术治理中缺失正义性、平等性,导致的结果必然是数字技术成为少部分阶层实现特殊利益的工具,并且随着各种“工具”的泛滥与异化,社会秩序必然是越发碎片化和无序化,形成技术对人类秩序改造的“数字陷阱”。凯斯·桑斯坦(Keith Sunstein)在《信息乌托邦》一书中,用“信息茧房”描述了信息传播过程中网络群体的部落化与群体极端化的现象。利益各异、四分五裂的网络群体,对信息的过滤与筛选容易使其走向非理性的民粹主义,造成一种“新社会结构的浮现”。这种“数字陷阱”使得“人性屈从于技术”,形成了技术秩序对于人本身的空间规训,“强化了不同地区、城乡之间和不同群体间公共服务效率和质量的对比度和距离感,加剧了不同地区和城乡内部不同群体间在公共服务可及性和可享性方面的不公平感,存在诱发个体心理问题、群体冲突与矛盾等风险”[12](p63)。此外,“数字陷阱”还会加剧弱势群体(缺乏基本的信息技术技能和数字资源群体)的资源劣势,导致社会成员之间在信息获取、身份认同、权益维护等方面形成不平等性差异,致使弱势群体陷入数字化的“数字贫困”和“数据压榨”之中。由此观之,无论是出于对技术应用边界的考量,还是消除“只见数据不见人”的现实困境,其最终落脚点应该是如何让技术和人类各自承担起自己合适的角色,寻找人与技术之间恰当的相处之道,这是一个重要的技术和伦理议题。

三、“技术—服务—秩序”技术治理逻辑下的政治性取舍


技术与制度具有同构性,数字公民与数字社会、数字国家融合在一起,呈现客体数字化与主体数字化的叠加效应。资本与科技结合起来后,通过过分强调绝对的效率优化和最大化的利益取向,使得每个产生数字需求的个人都被纳入资本与技术的纽带之中,甚至是被规制、驯化、绑架。在这一过程中,人逐渐被工具化,其自由与尊严受到了很大的矮化,容易下意识地被数字资本所操控。法国学者埃哈尔·费埃德伯格(Ehal Fjedberg)指出,技术决定论所依据的是一种还原性的技术论者的观察视角,这就陷入了技术主义的迷思之中。在技术的操控程序中,设计出来的人机互动逻辑、数理逻辑等的初衷是为了提升确定性,准确把握实存,促进人决策的科学性。但是技术为国家治理体制所吸纳后,出现了过度化的重塑社会制度和行为习惯,以至于人逐渐对技术产生了浓厚的依赖性和迷信感,甚至丧失某些情感的共情体验,失去一部分人性的内容,导致自身存在的基石被技术悬置。所以技术至上主义在本质上并不一定能带来人类文明的提升,过度化的工具理性只会导致动因漂移与工具依赖,形成资本对数字空间的正义侵蚀,如何使用技术,把人与技术的关系置于一种什么样的价值体系之中才是最重要的命题。

现代工业使人异化为机器的一部分,信息工业或者说后工业时代不是把人从工业时代的异化状态中解放出来,而是用所谓的智能算法更精确地掌控了人在系统中的行为模式,人性对技术的掌握进一步弱化。现代数字技术所形成的权力背后将会是非均衡性的社会参与,是一种数字不平等的生产关系。它限制了每个人自由平等表达话语的权利,缺失了政府和社会本应有的道德伦理关怀。实质上技术治理内含了一种简化逻辑,即从公共事务治理的“人本主义”向“事本主义”再向“技术主义”的简化,以工具理性遮蔽价值理性。尤瓦尔·赫拉利(Yuval Hurali)曾断言:当“在线”成为一种生存方式后,只会使未来数据流控制权的斗争将越发激烈,人类尤其需要警惕“数据独裁统治”的产生。科技的发展是为了解放人,让人自由,但是它却成为压迫人的“主宰”系统,或者说成为少数科技寡头实行统治的工具。正如赫伯特·马尔库塞(Herbert Marcuse)在《单向度的人》中所说,“技术的解放力量——事物的工具化——成为解放的桎梏,这就是人的工具化”,“把人当机器”反映了智能时代“人—机”“人—技”之间的伦理矛盾与价值冲突,如果技术代替市场成为社会规范的决定性力量,将以什么形式展现出来?技术一旦“失控”,或者社会价值和规范失去对技术的拘束力,那么“是否要用'政治’锁死科技”,抑或“人类放弃抵抗”,这将成为技术政治性的关键立场。

技术力量的增长是一个不争的事实,在从传统的经济理性转向新时代数字理性的过程中,重塑一种新的数字时代价值取舍已经是极为紧迫。韦伯将价值理性和工具理性视为合理性的两种具体形态,技术治理的“美好想象”是坚持“人本主义”的核心原则,打造技术肩挑服务与秩序的治理格局,实现“技术—服务—秩序”三维互动将是治理技术长久发展的必然选择。人工智能的“智能”是人赋予的,是有范围、有界限的,而且这些范围和界限也是由人来设定的。技术治理不是将人进行整体上的数字化,只要在特定场景、解决特定问题时能够被数字化描摹就行,形成优于人脑的处理效率和处理结果。比如,在新冠肺炎疫情防控中,数据分析中心只需要知道你的行程轨迹,就可以实现对人的风险预估。滥用、超范围收集、交易公民个人信息不仅会给大众的正常生活带来极大困扰,也会引发对于技术无序性的担忧,更成为滋生犯罪的温床。近些年频发的互联网犯罪案件给人民财产安全和国家社会稳定都带来极大的威胁,这些弊端不仅使人类被非正义价值取向的实体所侵害,更使得人类对技术“原罪”造成心理抵触。

人是第一性的,技术是人的工具。“人不仅具备选择的能力,还具备创造符号以及利用符号系统把握世界并赋予世界意义的能力”。数字时代的秩序应该是“人性秩序”而不是“机器秩序”,技术主导体现了效能至上,算法权威的价值选择,制度主义体现了对秩序可控和人性化伦理的重视,人本主义强调“人民本位”和治理温度。消解技术社会化困境,重新找回人对技术的直接限制,实现技术回归需有赖于技术生产部门的自觉调整、社会价值的道德规范以及国家权力的强制性规制的共同作用。“社会的不断'合理化’是同科技进步的制度化联系在一起的”,在充分认识到技术治理背后所掩盖的政治性风险(例如平台权力的扩张,算法偏好设置,“杀熟”消费陷阱等)的同时,也需要对技术的应用进行必要的制约与优化,形成“治理想要达到的是政治主权运转中的治理实践的合理化”,去构建一种技术场域内“国家理性”的主导状态。鉴于此,应该规制技术应用规则和边界,引导“技术治理”向“技术善治”转型,将“技术治理”从“技术逻辑”中拉回“治理逻辑”,充分认识到技术发展的阶段性以及技术治理内在缺陷和短板,摒弃技术治理自我合法化的谬误。同时需要注意人的主体性,这种主体性不同于将技术视为平台或人类的控制结果与控制产物的主体性,而是在技术—服务—秩序的流程中成为这一行为模式的直接操控者和监管者,人性需求是技术服务的圭臬,实现“人性秩序”对“技术秩序”的辖制。

四、“解构—建构”视角下对数字鸿沟的正义修复


(一)制度建设弭平正义漏洞

国家在运用种种新技术手段的时候,要想真正曲突徙薪,实现国家善治,就需要克制技术依赖和技术崇拜,对在国家治理中引入新技术抱一种审慎的态度。技术是表,制度是里。首先,借鉴部分西方国家的经验,努力构建数字空间内“数字弱势群体”的平等发展与公平权益保护,缩小老年人面临的“数字鸿沟”。政府在信息化和数字政务建设过程中,应充分考虑老年人和残障人群的客观需求,设置过渡期和特殊人群服务通道。重点推动与老年人、残疾人基本生活密切相关的网站、手机App的适老化改造,使老年人更加方便、快捷地获取公共信息和服务。同时鼓励企业在智能设备上提供“老年模式”“长辈模式”等,逐渐消除老年人面临的“数字鸿沟”,利用“数字反哺”弥合治理缝隙(见表1)。其次,加大对公民个人信息权益的保护力度,《中华人民共和国民法典》首次提出“私人生活安宁”,明确了侵害他人隐私权的具体行为,并强化对于隐私权和个人信息的保护。再次,公共服务建立数字治理的“留白机制”,在各类日常生活场景中,必须保留老年人熟悉的传统服务方式,防止利用数字技术对公共服务“一刀切”。例如,央行专门下文称商家不允许因为扫码而拒收现金,广东采用“健康防疫核验平台”替换智能手机信息采集的单一方式,通过身份证信息进行便捷化的公共管理与服务都是很好的实践。

(二)构建对等化的数字生产关系

数字资源已经成为新型的生产要素,也是经济新业态的生产资料来源。数据运用者与提供者均为数字资源的形成与发展发挥了等同性的作用,但数据提供者却往往难以直接分享经济收益,并且在数字资源的实用上常常处于屈服地位。一种对等的数字化生产关系,包括机会均等、规则均等和权利均等,并以此为基础释放数字生产的巨大潜力[21]。技术“原罪”的推定是有失偏颇的,但在充分认识到技术治理背后所掩盖的非正义性的同时,也需要认识到技术本身可能具有的政治性。互联网“算法”正持续加强圈层割裂,掌握大量数据的互联网企业似乎拥有了降维打击其他任何领域的“权力”,民众对不平等的数字使用权利现状只会是越来越警惕和不满,形成一个个的数字壁垒。我国在步入后流量红利时代,部分互联网企业在建立了数字平台后开始产生市场垄断,利用自己的数据与流量优势追求资本的利润最大化,这很可能使实体经济被数字资本大鳄所打压,挤压本属于中小企业创新开拓的发展空间。规则对等是建立公正秩序的基础,这提醒市场监管部门应该构建对等化的数字生产关系,对数字资源建立数字资源规则公平的使用权限,监管商业资本过度采集公民数字信息,抵制无序化的过度数字消费,限制流量经济肆意扩张,加强对利用数字平台进行市场垄断的资本方进行监管。

(三)对算法进行正义性的规制

系统与算法是冷漠的,它计算的是理性与效益第一,忽视的是人格、尊严与丰富性。“数字解决方案”如果不加审视地广泛应用,算法对于个人信息不加节制地刻意引导,对于少数族裔、特殊情况、弱势群体的无视,甚至利用大数据“杀熟”。这无疑会极大地影响数字应用上的公平公正和方便普适,隐藏在算法运作逻辑背后的“政治性”只会让技术应用显得毫无人性,造成社会的排斥直至厌恶。只有通过对算法进行正义性的规制,以此立场出发才可能找到更为完善的治理应对措施。对人工智能的“歧视”,说到底还是人类现有偏见的积累,没有把技术纳入“人性秩序”的规则之中。因此,一方面需要给技术以机会完善自身,成为人类的认识伙伴,而不是用智能、“客观”的“模型”来武断地代替我们去认识世界,多对“标准化”“理想化”以外情景进行考虑,保留更多的治理温度。另一方面,需要警惕身边的数据“采集”行为,多注意一下这些技术的用途,拒绝没有同意(consent)的技术应用。只有这样,才能促使技术开发和运用向更人性、更保障隐私、更公平的方向发展,消除歧视和不公,消解“智能官僚主义”积弊,促进技术赋能的价值回归。

(四)构建技术与人文的良性互动

数字化转型的目标应是实现“数字包容”,而不是加剧“数字鸿沟”。应对治理难题,推进整体性转变需要全社会的共同参与,而不仅仅惠及数字化的强者。消解技术社会化困境,实现社会的包容性、公正性的发展,需要建立起人文与技术双重叠加后的耦合发展,在技术中植入人伦情感的考量。在强调技术效率的同时也要增强心灵关怀,在政务实践中可依据普遍适用与分类推进相结合的原则,在摆脱“工具依赖”的同时促进政社间的良性互动。要以人文关怀为核心,牢记“技术以人为本”,体现“人本主义”的伦理关怀,驯化技术,而不是变成技术的囚徒。政府部门在对新业态和新技术保持足够包容的同时,进行必要监管,守牢法律底线,允许技术试错的风险,在有效防止“动因飘移”的同时也应建立友好型的政社互动关系。公共服务在考虑便捷性和高效性的同时更应该立足于均衡性和普惠性,将“以人为本”作为服务的首要理念,降低“数字官僚主义”的治理成本,抵制数字资本对消费市场的肆意收割,加大对非物质文化遗产的保护,实现数字空间内的包容性发展。

五、结语


“以数字化转型整体驱动生产方式、生活方式和治理方式变革”,进而打造数字经济新优势,加快数字社会建设步伐,提高数字政府建设水平,营造良好数字发展生态。如今不管是企业还是政府,都试图运用数字技术的赋能特征来一劳永逸地解决所有社会问题。无论是出于对技术应用边界的考量,还是消除“只见数据不见人”的现实困境,其最终落脚点应该是如何让技术和人类各自承担起自己合适的角色,寻找人与技术之间恰当的相处之道。从这个意义上讲,很多问题并不是技术出了问题,而是使用技术的行为者的价值选择出了问题。在技术日益嵌入社会各个触角的当下,我们需要掌控好其跃进的节奏、范围和程度,系统、理性地思考技术与政治、技术与生活以及技术与人的关系。同样,数字技术也在改造制度,创新制度,完善制度。只有正视社会问题,不做旁观者,政府才能运用数字技术更好地改革制度达到善治。
当前,从中央到地方,各级政府都在尝试以数字技术驱动体制机制改革,应对治理难题,建立更加包容开放的政府服务制度,促进社会的公平正义。寻求治理技术化的平衡离不开两个方面的努力:一方面,人类必须主动适应技术应用所带来的角色转变,人类需要做的是将自己有限的精力聚焦在技术尚不能企及的领域(例如思维、情感等认知领域),而不是过分忧虑技术对自身角色的超越;另一方面,人类需要思考的是在最大化技术功用和确保人的主体性存在之间寻求平衡。为此,在制度化的道路上做出努力是必要的,既要保证技术发展和应用具有足够的空间,又要使技术在制度设计所圈定的范围内活动,同时人类也必须为技术的局部“越界”行为兜底,确保人与技术共处共生。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
热点思考|从三个角度观察国家数字能力
人工智能安全的双重规制体系
数字法学的理论表达
国家数字能力:数字革命中的国家治理能力建设
技经观察丨做好数据正义和算法治理,AI方能驭风飞翔
《科学·经济·社会》2022年第1期
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服