“算法焦虑”的生成机理及纾解之道

来源:人民论坛网
时间:2021-02-25 09:49

  “算法焦虑”:人工智能时代典型现象

  第一,算法侵蚀个人主体性。算法可以根据个人的兴趣爱好,打造具有沉浸感、互动感和愉悦感的个性化定制智能场景,信息、资讯传播路径由过去的“千人一面”转变为“千人千面”,不断满足用户的信息兴趣和需求偏好。这种颠覆性变化依靠数据收集与处理来支撑。算法通过多种渠道收集用户的行为习惯、信息兴趣、信息需求,将其集合到数据库之中,并通过一定的运算规则进行“用户画像”,把零散的数据信息整合成可视化的“完整个体”,将虚拟世界的个体与现实世界的个体相联结。在联结过程中,用户信息收集环节极易出现“失控”现象。因为在算法面前,用户评论、转发、点赞、收藏等行为所产生的信息均会不由自主地成为算法的“囊中之物”。这就使公众的个人主体性遭受侵犯,对算法难以产生有效信任,在与其互动时出现玻璃箱中“小白鼠”式焦虑。

  第二,算法带来“内卷化”现象。“内卷化”这一被广泛应用到各个学科与领域之中的学术概念,深刻地揭示出组织或者社会中既无突变式变化,亦无渐进式增长,总是在较低水平徘徊的现象。算法领域的“内卷化”现象较为突出。受到经验阅历、知识水平、思想追求、价值倾向等综合因素影响,个体用户的信息需求与兴趣偏好会保持较为稳定的状态,这决定了个体用户的“用户画像”呈现出整体轮廓不易改变、具体细节动态调整的典型特征。算法为了实现对用户需求的“精准打击”,必然会根据用户主体进行“精准推送”。在双向性、回旋型、交流式的互动模型中,用户接收的是极大满足自身信息需求的“海量推送”,出现越看越“精准”、越看越“贴心”、越看越“沉浸”的局面。但是算法强调“精度”与“敏度”,忽视“温度”与“增度”,不会考虑用户信息需求的价值性、规范性与增值性。受众接收的不再是多元全面、荤素搭配的信息,而是“同质异象”的、与用户信息偏好高度吻合的信息。由此,用户在海量信息里面的营养收益呈现出边际递减的趋势,“内卷化”现象凸显,出现人工智能时代“逆水行舟,不进则退”式焦虑。

  第三,算法影响公众舆论导向把控。信息与资讯能够影响公众的认知与判断,对公众的舆论行为具有调控乃至再造的功能。算法针对用户偏好进行海量信息的智能推送,“同类信息”“一种声音”持续轰炸用户的眼球与大脑,“异类信息”“不同声音”则受到限制与屏蔽,风声雨声读书声难以声声入耳。同类的、满足用户偏好的海量信息极大压缩用户仔细筛选、独立思考以及理性判断的空间,使其成为任由算法摆布的“茧房蚕虫”,陷入越是喜欢越是“投喂”、越是“投喂”越是“自缚”的桎梏。长此以往,以自我封闭、固执僵化和拒绝交流为核心特征的偏执型用户会大量出现,逐渐在网络空间中集结成或紧密或松散的舆论联合体,在虚拟与现实的联结中影响公众舆论导向。与传统媒体的舆论导向功能相比,算法影响公众舆论导向的力度更大、范围更广、时间更久。算法对公众舆论的导向与把控是技术理性作用的结果,由于缺乏价值理性的正向引导,算法对公众舆论导向的负面效应亦难以避免,出现以“知识鸿沟”“沉默的螺旋”等为典型代表的群体式焦虑。

  生成机理:诱发因素系统化剖析

  “算法焦虑”在个人、群体乃至社会层面均有所体现,诱发“算法焦虑”的因素也是多种多样、相互交织的,既有算法自身层面的问题,也有规制理念、治理模式等层面的问题。

  第一,一段时间内盛行的“技术中立论”的错误引导。在算法早期发展阶段,它主要用来解决一些较为简单、涉及范围较小的问题。对算法的审视主要以技术本身的内部视域为主,更多关注商业领域内算法技术的革新与增长,认为算法在伦理层面的判断具有中立性。由此,算法“技术中立论”大行其道。历史地看,算法“技术中立论”能够在一定程度上保证算法的相对独立性,帮助其在早期发展阶段获得革新与增长的空间。但是从本质来讲,算法作为一种技术始终摆脱不了人的因素,算法始终会有人的情绪与偏好烙印,根本不能做到中立而无偏斜。“技术中立论”本身就是个伪命题。尤其是随着人工智能蓬勃发展,算法逐渐嵌入到经济社会发展的方方面面,政府与社会的监督管理与引导更加成为算法发展的应然要求。然而受到思维惯性、体制惰性以及商业利润等因素的影响,很长一段时间内算法“技术中立论”仍旧占据主导地位,致使算法既缺乏政府有效监管,又缺乏系统化、科学化的顶层设计,呈现出“野蛮生长”态势,“算法霸权”“算法歧视”“算法茧房”等乱象层出不穷。

  第二,“算法黑箱”等技术特性增加外部有效监督的困难性。算法可能比用户更加了解自身的需求和偏好,然而用户对算法却是知之甚少,可能都不会察觉到隐藏在人工智能、大数据、区块链等标志性技术背后的算法的存在。这是因为算法和有形物品不同,具有很强的载体依附性与隐蔽性,用户无法清晰地了解其内部运行机理。由算法的技术特性带来的不透明现象被生动地描述为“算法黑箱”。“算法黑箱”成为横亘在算法与公众、社会与政府之间的一道鸿沟,带来外部有效监督的困难性。法国总统马克龙在2018年接受连线杂志采访时称,应用在公共事业领域的算法,会逐步公布其代码和模型,以降低因算法不透明而带来的种种风险与公众恐慌。然而这种做法收效甚微。原因在于,向社会和公众公布的代码和模型仍旧具有高度专业性与程序性特征,只有少部分具有专业知识的公众以及专业领域的行政人员才能理解其内在运行机理,才能对算法应用后的风险进行预测与评估。在算法仍旧是“黑暗的秘密”情况下,“算法焦虑”自然难以纾解。

  第三,“互联网+”治理与“互联网+”增长间的悖论。人工智能时代,政府智能治理以“互联网+”式的回应型治理模式为主,呈现的是“问题—对策”的逻辑范式。回应型治理模式基本能够适应公共治理、社会治理领域中的诸多问题,是有效提高治理效能的科学模式。然而在智能治理领域,算法呈现出“互联网+”式的指数增长规律,区别于呈现线性增长规律的其他问题。“互联网+”式的回应型治理与“互联网+”指数增长间的悖论油然而生。二者之间的悖论意味着政府在“算法焦虑”治理情景中经常扮演事后处罚者的角色,问题处置的滞后性极易影响“算法焦虑”治理效能。因此,我们经常发现治理“算法焦虑”过程中传统的政府治理框架频繁失效,对现有治理框架进行稍许改良的路径亦难以持续回应层出不穷的新焦虑。

  多元互动:迈向算法信任的治理方案

  人工智能时代算法治理已经成为推进国家治理体系和治理能力现代化的题中应有之义。综合考虑我国智能治理现状以及“算法焦虑”的主要表现和诱因,纾解“算法焦虑”,迈向算法信任,必须进一步坚持科学谋划、多管齐下、重点突出、持续优化的复合型治理思路。

  第一,进一步完善用户数据区分与隐私保护机制。把握好数据区分与隐私保护之间的辩证关系,就是抓住了算法的“阿喀琉斯之踵”,是纾解“算法焦虑”,迈向算法信任的重要内容。数据是算法赖以生存和增长的前提,一定规模与质量的数据是算法发挥功效的重要保证。因此,探讨数据区分与隐私保护的辩证关系,要着重思考数据的权属及其使用边界问题。数据的权属可以分为三种情形。一是敏感型数据的权属。涉及用户个人信息、底层使用痕迹的数据被称为“敏感型数据”,用户拥有敏感型数据的所有权。二是公共型数据的权属。应用于行政、司法等领域的、经过匿名化处理的数据被称为“公共型数据”,数据控制者拥有受限制的所有权。三是脱敏型数据的权属。经过数据清理加工的衍生数据被称为“脱敏型数据”,数据控制者拥有所有权。对敏感型数据而言,算法企业或平台不能私自使用,更不能泄露甚至买卖,否则后果将不堪设想。对公共型数据而言,行政机关、司法部门必须按照严格的规定与程序,有限度使用与处理数据。对脱敏型数据而言,可以集中应用于新闻推荐场景、搜索引擎排序以及电子商务领域,但仍要注意数据使用的限度,防止数据过度使用带来的次生问题。

  第二,进一步构建适应算法发展实际的法律体系。法律因其治理效能的权威性、规范性与持续性,被认为是治理“算法焦虑”的“重器”。我国一向重视人工智能领域立法工作,已形成一定的法律框架体系,为治理“算法焦虑”提供重要指导和遵循。同时也应该看到,与治理“算法焦虑”相关的法律法规呈现出零散化以及低位阶的显著特点。下一步,应该重点关注相关法律体系的完整化、精细化以及层次化问题。

  第三,进一步凸显算法使用平台自我治理的优势。人工智能时代,算法使用平台与行政、司法等领域相结合,算法“公共性”色彩日益增强。强化算法使用平台自我把关、自我控制的责任与义务,既是符合算法技术特点的基本要求,也是算法使用平台主动维护用户利益与权利、承担社会责任的必然要求。一方面,算法使用平台应该加强价值引领与导向把控。应该摒弃“流量为王”“利润至上”“娱乐至死”等不良导向,坚持以人民为中心的价值导向,传播主流价值观,主动落实用主流价值导向驾驭算法,全面提高舆论引导能力的部署要求。另一方面,算法使用平台应该在一定程度上“去算法化”。人工智能时代算法在不同场景下深度学习和优化升级的能力与日俱增,但是再先进的技术也有自身的盲区与缺陷,机器始终无法全面代替人类。算法使用平台依赖算法而生存,但是要想取得持续优化与改进,必然要在一定程度上“去算法化”,逐步打造一支本领高强、站位较高的“把关人”“总编辑”队伍,强化人工审核与问题纠偏的重要功能。

  第四,进一步保持对算法使用平台监督问责的良好态势。党的十八大以来,一大批导向不正、格调低俗的自媒体、公众号被拉入“黑名单”,诸多乌烟瘴气、逾越道德和法律底线的APP被永久关停。这既能有效打击算法使用平台违法犯罪行为,同时也拉起一条网络“高压线”,为治理“算法焦虑”、重塑算法信任保驾护航。下一步,要把完善算法登记备案制度以及强化算法技术审查机制作为行进重点。依据《国家新一代人工智能标准体系建设指南》等重要文件,对算法进行分类别、分领域、分层次的登记备案,可以在算法投入应用前确立责任主体,强化对算法应用平台的事前审核监督。同时,也应该强化算法技术审查机制,对算法使用后果持续追踪、及时反馈、系统剖析,从而发现问题、解决问题,实现事前监督与事中监督、问责相结合,充分体现对算法技术、算法使用平台激励与约束并重、严管与厚爱结合的正确导向。

  (作者胡月星为中共中央党校(国家行政学院)党的领导与领导科学教研室主任、教授、博导;中共中央党校(国家行政学院)党的建设教研部博士研究生候术山对本文亦有贡献)

编辑:贺心群