来源:再建巴别塔
作者简介
彭兰

彭兰,教育部长江学者特聘教授,中国人民大学吴玉章讲席教授、博士生导师,中国人民大学新闻与社会发展研究中心研究员。研究方向:新媒体传播。先后出版《中国网络媒体的第一个十年》《网络传播概论》《新媒体用户研究:节点化、媒介化、赛博格化的人》等20余部著作或教材,发表学术论文200多篇。获多个国家级、省部级教学与科研奖。
摘要
在智能传播活动中,各种人类主体与各种智能技术共同构成了全新的行动者网络。在与智能技术的互动中,人类行动者的角色、行动方式、作用机制和话语权力等也在发生变化:普通个体成为与机器融为一体的传播单元,他们既是人机一体的赛博格,又是增强的内容生产者和人机交流的主导者,同时还是机器的学习对象与训练者,他们也成为智能应用中新的权利主体;各种智能技术的开发者是机器的核心形塑者,他们既决定着机器的行为模式,主导着机器的价值观,也应该成为机器风险的主要防范者;平台运营者既是机器的代理者与筛选者,是机器加持下的新权力中心,同时也是机器风险的调适者;媒体等专业内容生产者则面临着话语权不断被削弱的局面,他们需要通过角色的再定位与专业性重塑来护卫人类的价值观与人类的价值。
关键词
智能传播;智能平台;机器价值观;人类价值观;人类价值;人机关系
正文
法国学者拉图尔提出的行动者网络理论,为我们认识智能时代人与技术的关系提供了一个重要的框架。在拉图尔眼中,任何通过制造差别而改变了事物状态的东西都可以被称为“行动者”——包括人类行动者和非人类行动者,任何信息、条件在行动者这里都会发生转化,致力于同一目标的所有行动者都被联结在一个密不可分的网络之中。
智能传播时代,数据、算法及其他智能系统、智能物等技术不应当仅仅被当作被动的工具,而是应视为能动的行动者,它们与各种人类主体一同构成了一个全新的行动者网络。智能技术在传播中对客观世界或其他传播对象起着简化、抽象、扭曲、价值重塑等各种作用。与此同时,它们也对人类行动者产生了影响。在技术的作用下,各种人类行动者在传播活动中的角色、参与方式与作用机制、话语权力等也在发生持续的变化。
本文将从普通个体、技术开发者、平台运营者、媒体及其他专业内容生产者等四种不同的人类行动者角度,探究智能传播中不同主体的角色与作用,以及他们在与技术的互动中所发生的变化。
一、普通个体:与机器融为一体的传播单元
社交媒体的发展,已经使普通个体成为了传播网络中的基础单元,或者说传播网络的节点,而智能时代的个体,其传播能力与方式还会进一步演变,伴随着这种演变,人与机器的关系发生本质变化:人与机器融为一体的同时,人也与机器进行着协同与对话;在这个过程中,人成为了机器的学习模板与训练者。
(一)人机一体的赛博格
赛博格(cyborg)一词起源于20世纪60年代,它是“cybernetic”(控制论的)和“organism”(有机体)两个词的合成。两位来自美国航天系统的医学科学家提出,为了解决人类在未来星际旅行中面临的呼吸、新陈代谢、失重以及辐射效应等问题,需要向人类身体移植辅助的神经控制装置以增强人类适应外部空间的生存能力,由此产生了赛博格这个概念。“赛博格”后来被定义为经由机器拓展进而超越人体机能限制的新身体,也有人将其简称为电子人。
赛博格的出发点是技术对人的增强,进入21世纪,被合称为“NBIC”(纳米、生物、信息、认知)的四大技术,构成了“重叠的革命”,共同开启了对人的体能、智力、情感、道德等进行增强的被称之为“超人类主义”的浩大工程。
虽然赛博格的概念和后人类叙事已经存在了几十年,但是,过去很多构想只存在于影视、文学作品中。而移动传播、人工智能等技术的加持,使得人与机器的共生逐渐成为现实。当人与智能手机形成了日益紧密、不可分割的关系时,某种意义上智能手机就成为了人的身体的一部分,虽然智能手机并没有真正嵌入人体。除了手机外,耳机、智能手环、智能手表、智能眼镜或其他VR、AR等设备也已经或正在进入人们的赛博格化实践中。通过身体携带的设备,人还与云端设备建立起了紧密连接,身体与弥散的外部技术系统构成了一个更广义的赛博格。
赛博格化带来的一个基本结果,就是人的某些状态与行为会不断映射为数据,身体状态也因这些智能设备得到更多呈现,因此,人对自身的物质层面(身体状态、运动等)有了更多自我观察、检视的机会,甚至过去被认为是不可量化的精神层面的反映,如情绪与心理状态等,也因一些可穿戴设备的数据映射而被量化。这也许会促使人们更加关注自己的物质化状态,在这样的背景下,人的自我传播在加强。
与传统的仅在人的身体内部进行的自我传播不同的是,由智能终端中介的自我传播,在某些时候也会进入人际传播或公共传播渠道,物质化自我的数据变成一种社交表演的方式,以及与他人互动的中介,相应的反馈也会影响到人们的自我认知。当智能设备使人们展示的身体信息走向多维、精准、实时,与他人的互动不仅会发生相应变化,自我认知、自我调节的方式与程度也会发生变化。
对于智能传播而言,赛博格化意味着人的身体成为了传播的终端或节点,这个终端或节点所产生的数据,也成为整个传播网络的内容或内容生产的资源。通过与身体捆绑的智能设备,人也获得了增强的信息获取能力,甚至可以形成“第六感”,例如通过智能眼镜捕捉到人像或其他对象的图像后,借助图像识别技术和搜索功能,人们便可以获得所面对的人、地点、建筑等对象的背景信息。这些“第六感”对人际传播或公共传播都会产生影响。
赛博格化的身体也会影响人际交流的方式。例如,手机、耳机等在一定程度上改变了现实交流中的场景与人们的“在场”状态。正在发展中的脑机接口技术,甚至可以使人的思维部分转换成数据。目前这样的技术开发主要是面向身体机能受损的病人,未来它是否会推广到普通人群,还不得而知。如果普通人应用这一技术,人的自我传播与人际传播、公共传播之间的互动与纠缠将进一步深化。
作为赛博格化的人,未来还会拥有多重数字分身(精确复制人的外形的数字人)、数字化身(具有丰富多变的外形的数字人),它们也会成为传播的主体,参与到智能传播活动中。
(二)“增强”的内容生产者
新技术对人类的增强也体现在内容生产方面。社会化媒体的兴起已经为普通人提供了参与内容生产、传播的可能,但不同阶段的生产技术门槛仍然限制着人们生产内容的类型。在早期互联网中,人们主要参与的是文字内容生产,而智能手机的普及、移动传播平台的发展,使用户广泛参与到图片、视频等视觉化的内容生产中,但人们拍摄的照片、短视频,基本上仍是基于现实客观世界,完全虚构的内容少见。AIGC(人工智能生成内容)技术的普及,再一次增强了普通用户的生产能力,尤其是虚构性内容生产能力。在机器的协同下,普通用户生产的虚构性内容主要包括以下几种类型:
现实元素的数字化再现。人的数字分身便是一种典型的应用。未来的数字分身可能会应用于各种不同的场景,也包括各种传播活动。
现实元素的重组。利用深度伪造技术,可以将已有的现实元素进行再组合,例如,将自己的身体与他人的脸重组,或者将宠物的外貎与人的身体动作重组。
现实与虚构元素的组合。例如,在纪实性的视频中,加上人工智能的配音。
完全的虚构。即利用技术生成小说、剧本等虚构性文字,或现实中不存在的新的人物、动物、景色等视觉内容,甚至电影。
以往只有艺术家才会创作虚构性内容,但智能时代,虚构性创作会成为一种普通人的新的自我表达方式。人们需要“虚构”性内容的动因也是多方面的:
其一是为了掩饰真实自我的某些元素,避免暴露短板,或者带来隐私风险。在这样的动因下,未来人们会越来越多地以化身的方式进行交流,化身在很大程度将是虚构性的外貌或身体。
其二是为了更好的自我展现。智能技术将带来图像加工技术的升级,使人们全方位地对自己进行美化,包括声音、形体动作等。智能技术也可以将人们的声音元素与各种不同的语言表达结合,使人们可以流利地“讲”各种自己并不熟悉的外语。这也会在某些方面打破交流的障碍。
其三是为了呈现与释放自己的想象力,特别是将那些头脑中的幻像转变成可以直接感知的视觉对象。今天,一些用户已经试着利用AIGC技术将自己的梦境描绘出来,未来人们会通过这些技术描绘更多超出现实的梦幻内容。
其四是为了批量化或精确化的内容生产。那些试图通过内容生产赢利的自媒体,尤其需要机器具备这方面的能力,但这也会带来虚假内容的进一步漫延。而对那些试图控制信息或舆论的机构与个人来说,借助生成式人工智能工具,他们能够通过对个人和群体画像来精细调整他们的策略,进行内容定制,此种定制可以确保叙事符合特定受众的价值观和信念,并与操作者的叙事策略相吻合。智能时代的水军,也会更多地以“社交机器人”等智能方式体现。除了制造假新闻、控制舆论外,一些人也会将机器赋予的增强能力用于其他不良的目的,例如诈骗。
在虚构性内容生产外,智能技术对普通人的增强,还体现在知识加工方面。乐观的研究者认为,智能技术带来了集体智慧,这预示着我们正步入一个全新的知识生产新纪元,也就是任何文化、语境或背景的数据,都可能被整合进一个全球性、多元化且高度互联的知识网络中,机器算法的介入强化了社会中个体思维之间的关系,打破了传统知识生产中时间和空间的枷锁,提供了非在场知识传播,同时使得更大规模、更多元化的知识生产成为可能,使知识生产向“全球脑”推进。个体可以超越自身的社交网络、社会阶层等限制,获取广泛的知识,也可以借助智能机器的加工实现知识的速成。
但也有不少研究者对智能技术生成的知识的局限性进行了反思。有学者指出,当GPT生成文本的过程被称为“自然语言处理”时,便表明了它只是在语言符号的层面上进行的数字化处理,而不是在知识语义上进行的处理。人类生成知识是在意向性的基础上完成的,以一阶知识(“无中生有”)、二阶知识(对“有”进行种种形式化的变形与改造)的面貌呈现;ChatGPT的知识生产是缺乏反思性的,仅通过逻辑关系对既有知识进行联结和组合,以三阶知识(对既有“信息”或“知识”的再联结)的面貌呈现。三阶知识是对既有知识的新理解、新阐释,导向一种非原始创新的“文本创新”或“阐释创新”,或是对既有知识的应用之新,而不是“发现之新”,从而属于非本质之新。
尽管智能技术自动生成的“知识”究竟是否算知识生产,这些知识是否具有创造性,这些问题在学界还没有形成统一认识,但至少,人们利用智能技术可以快速获取某些方面的知识,进行知识的再加工。有研究者指出,知识创造在于异质性与多元性的生成,ChatGPT与生成智能是带来人类知识的高度同质化还是激发新的异质化,亦需我们持续关注。目前,ChatGPT的表现可能会带来更多的同质化、平庸化,当然,这并不一定代表未来。
(三)人机交流的主导者
杜骏飞认为,ChatGPT的出现宣告数字交往2.0时代的开启,其特征是人与人、人与非人之间的AI辅助交往,其本质的变革则是发生于人的生命与人工生命之间的联结——一种跨生命的交往。可以预期的是,智能技术的进一步发展将推动这种跨物种交往的深化,也意味着在人们的社交互动中,人机交流将成为重要的方式。
今天的研究者往往借鉴一些传统的理论,如准社会交往理论、媒体等同等,来研究人机交流,但这样的研究思维,仍是把机器当作人来看待。借用准社会交往理论意味着把机器视作准社会交往中的“名人”“媒体人”,而借用媒体等同理论,则会通过机器—媒体—人(机器是一种媒体,而人们与媒体的互动也是社会性的,即人们将媒体当作人来看待)这样一个链条,将机器间接等同于人。但正如孙玮指出,人工智能的非人性比人性更为根本,人工智能是一种“异类”智能。即使人工智能研究的目标之一是使机器不断模拟人,向人类学习,但在某些方面机器将始终与人有着差异,如在生命历程、身体经验等方面,ChatGPT难以实现“效果历史”下的理解,也不具备“具身认知”的前提。作为人机交流主体的机器,更应该被视作“他者”。理解作为他者的机器在交流中的特性及局限,是未来的人需要面对的挑战。
虽然机器与人具有异质性,但也应该是交流过程中平等的他者,而人们对人机交流的需要,很多时候却缘于机器的服从性,这种服从性正是人际交流中稀缺的。当人们沉迷于人机交流时,或许很大程度是沉迷于对机器的控制所带来的快感。在这一前提下,机器是否可能作为平等的交流他者存在?人与机器的交流,究竟是人们获得更好的交流伦理与技巧的训练还是反之?人机交流是让人们更珍惜人际交流还是更逃避人际交流?这一系列的疑问会一直伴随着我们。
进一步,作为机器的交流对象的人,是通过交流让机器的思维与表达方式更接近人,还是会使自己的思维与表达方式更接近机器?这将是未来会更困扰人们的问题。
在人机交流时代,人如何看待与自己交流的机器,如何利用人机交流,不仅关乎交流的未来走向,更关乎智能时代人如何生存的问题。
(四)机器的学习对象
人机交流的过程也是机器向人学习的过程。而在更高层面上,机器也是将人作为学习对象。
目前的人工智能的语言大模型主要采用“预训练+微调”方式,预训练指的是使用通用性的任务和大规模的无标注数据进行第一阶段的训练,让机器学习模型从而学习到具有较强泛化性的参数。对于特定的下游任务,模型仅需对学习好的参数进行微小的调整(或训练)就能够完成高效迁移,达到显著的性能表现。因此,大模型的语料体系也包括预训练语料与微调语料两个部分,其中预训练语料包括OpenAI从书籍、杂志、百科、论坛等渠道收集,并初步清理后形成的海量无标注文本数据;微调语料包括从开源代码库爬取、专家标注、用户提交等方式收集和加工的高质量有标注文本数据。可以看出,无论是预训练语料还是微调语料,用户的贡献都是不可或缺的。
未来的大模型是面向多模态的,或者说是多媒体的,同样,人类生成的图片、音频、视频是机器学习的对象。
因此,机器生成的内容的水准,在很大程度上取决于人类生产的语料的质量。机器生成内容的风格也基本反映着人类语料的某些风格。今天机器的风格是对平均水平的映射,是中规中矩的,未来的机器风格或许会更犀利、极致,但也不会完全脱离人类的风格轨道。
除了语料外,机器的行为、机器的道德与伦理标准等,也在很大程度上来自人类“模板”,这既包括技术开发者给机器直接灌输的模板,也包括与机器交流的普通人对机器的潜移默化的影响。
(五)机器的训练者
用户对各种智能技术的应用过程,也是对机器的再训练过程,人在使用行为中的反馈,是机器学习的新数据,这些数据对机器的未来行为起着重要作用。
在推荐算法应用中,也是如此。人们在面对算法时采用的态度或方式,决定着算法进一步推荐的内容。有研究者认为,用户可能与算法形成合作或反抗关系,这背后是他们对信息技术认同态度的影响,而感知可解释性、感知公平、感知回应、算法自我效能正向影响短视频用户对算法的信息技术认同,感知平台监视负向影响短视频用户对算法的信息技术认同,感知自由威胁负向影响短视频用户对算法的信息技术认同。如果人们不断接受算法推荐的内容,也就是采用合作方式,那么算法得到的反馈便是,目前的推荐思路是被用户认可的,因此,它会继续强化当前的推荐模式。而如果用户用反抗方式表示了对算法的不满,例如,跳过了算法推荐的内容,或通过平台提供的操作进行了否定性反馈,那么算法就可能会对推荐内容做出调整。
普通用户对算法的认知,很多时候不是来自课程学习,而是来自亲身实践,那些与算法打交道非常频繁的用户,对算法的认知通常也会更丰富,也会对算法进行有意识的训练,使算法可以更好地为自己服务,或者寻找算法的内在规律,让自己生产的内容可以在算法那里得到更多的推荐。例如,有视频内容生产者在对视频速度、视频背景、字幕、标题、封面,甚至“在视频里坐着还是站着”,“横屏还是竖屏”或是“文案中改一个字”等多种要素的测试后得出了一套“最适合自己的公式”。
在一些研究者看来,用户可以从算法的执行后果出发,对其加以逆向追问以迫使其修正与改正,用户的抵抗战术非但不是针对算法的敌对力量,反而是具有治理意味的引导策略。但并非所有用户都具有对算法的识别与训练、抵抗能力,根据以往一些学者的研究,年龄、学历、媒介素养等对于人们在算法使用中的主动性有显著影响。
即使一些用户具有对算法的抵抗行动,但也有研究者担忧,用户自以为聪明的抵抗实质变成了一种自我强化的不平等。人们可以人为阻断算法技术的控制,形成“逃逸”。但是算法已经把“逃逸者”置于与其紧密相连的社群之中,私人生活与公共生活捆绑在一起,“逃逸”的结果不只是人在社群中的边缘化,还包括对个体社会性生存的疏离。
除了算法外,ChatGPT等AIGC技术或生成式大语言模型等,也会受到来自用户的训练与调教。人们给机器下的指令,为机器提供了内容生产的目标,而对机器生成内容的反馈,推动机器不断对内容进行调整。
用户对机器的训练,除了通过与机器互动中的反馈外,还可以通过他们对机器的各种“民间理论”(即他们对机器的直觉与朴素认识)所体现的认知、观点,来影响开发者的判断与价值观。国外学者梳理了用户对算法形成的四种典型的民间理论:“理性助手”(算法服务于用户的利益)、“不受欢迎的观察者”(算法通过数据收集服务于平台的利益)、“透明平台”(订阅流是未经过滤的)和“共同的黑箱”(算法是不透明的且不易控制的)。在国内,研究者也有相似的发现。这些民间理论经过研究者的中介、放大后,会反馈到开发者那里,进而影响到开发者未来对机器的开发与应用方向,这也是一种间接的对机器的作用。
但我们也需要意识到,在人对机器进行训练的同时,机器也在对人进行训练。
吴冠军指出,用海量文本来进行神经网络训练的大语言模型,实际上是把人的有意识展开的慢思考,全部变成了前意识的快思考,而这些机器生成的快思考,反过来又会影响着人,越来越多的人也习惯于接受答案式的快思考,而放弃自己对知识、信息的理解、消化过程。
此外,机器需要将一切对象转化成数据才能进行处理,在与机器的互动中,人也不免受到这种数据化思维的影响。由于人的思维去适应机器的智能,它自身变得机器化。
(六)新的权利主体
智能传播中的个人也拥有了新的个人权利、权益,个人数据权益、生物识别信息的相关权利是目前最突出的两个方面。
在学界个人数据权益有时也表述为个人信息权益,但也有人将两者视为有差异的两种权益。有学者指出,凡是单独可以识别出特定自然人的数据或者与其他数据结合后能够识别出自然人的数据,都是个人数据。法律需要保护的个人的数据利益具体表现为三项:其一,知悉个人数据被收集、被基于何种目的而加以收集以及使用的目的、方式、范围并基于此加以同意的利益;其二,知悉个人数据被转让并在未经同意拒绝转让时的利益;其三,查询个人数据并在个人数据出现错误或遗漏、缺失时有权要求删除、更正或补充的利益。
有研究者进一步将个人数据权利体系分为数据本体性权利与数据衍生性权利。前者指与数据本身的控制、利用和保护有关的权利类型,保护的是个人数据的自主性、独特性、安宁性权利。后者指在数据利用过程中产生的关联性权利,保护的是数据流动过程中个人的受益性、平等性、参与性权利。
近几年出现的深度伪造技术也使得与人的生物特征相关的权利问题更为醒目,个人生物特征包括基因、指纹、掌纹、虹膜、声纹以及面部识别特征等。目前在法学界,对生物特征,更多地使用生物识别信息这一表述,“生物识别信息”指基于个人生物标识(视网膜或虹膜扫描、指纹、声纹、手或脸的几何扫描等)而生成的任何信息,无论其如何被取得、转换、存储或共享。2020年5月通过的《民法典》第1034条将“生物识别信息”列为受到保护的个人信息。
智能传播技术应用的一种主要风险是对个体的这些新权利、权益的侵犯。要防范风险,不能依赖传统的“赋权+限权”模式来解决,而是需要运用处理多重利益的治理体系,也需要多种行动者的共同参与。在其中,个人对自己的数据权益、权利的内涵的认识,以及自我保护手段,也是必要的一个方面,尽管很多时候个人的能力是有限的。
对个人权利与权益的认识、相关保护意识与保护能力等,也会影响到普通人在传播活动中的具体行动。
二、技术开发者:机器的核心形塑者
传统媒体时代,技术人员往往只是作为媒体中的辅助、边缘人员存在。进入网络传播时代后,他们的地位有了提升,但也难以对媒体和公共传播形成关键影响。但在智能传播时代,技术开发者(包括来自传媒业之外的)在传媒业的作用日益深刻。在智能传播的行动者网络中,开发者决定着机器行为模式以及机器价值观等更深层的行动要素,从而对整个网络起着重要作用。
(一)机器行为模式的设计者
智能机器处理不同问题,会有不同的行为模式,这些模式是由开发思路决定的。
从人工智能生成内容角度看,早期的AIGC是利用AI工具辅助生成具有固定模板的内容,2014年出现的生成对抗网络GAN(Generative Adversarial Network)则是基于对抗学习的生成模型,采用生成器与判别器进行对抗训练,生成器的目的是尽量去学习真实的数据分布,而判别器的目的是尽量正确判别输入数据是来自真实数据还是来自生成器,二者对抗博弈、不断迭代从而生成新的能够以假乱真的内容。2021年出现的对比图像—文本预训练模型CLIP(Contrastive Language-Image Pre Training)通过构建文本编码器和图像编码器分别学习图像和文本特征,并使用多模态嵌入空间对比学习将图片分类任务转换为图文匹配任务。2022年,扩散模型(diffusion model)的流行再次推动AIGC的技术变革和内容创新,其通过前向扩散过程和反向生成过程实现高效图文生成。这些技术的进化意味着机器在内容生成方面的行为模式从对人类的机械模仿不断走向突破与创新。
除了内容生成外,未来的人工智能会有更多类似人的行为,但人类本身的行为是多元的,机器也不可能学习一切人的行为模式,而只会选择某些行为来学习。当下的大模型更多是从词语出现的概率角度来进行语言的生成,未来的机器是从概率还是从其他思路来生成自己的行为,取决于技术开发者。进一步,机器是完全模仿人类的行为,还是另辟蹊径,创造区别于人类的行为模式,也取决于开发者对人机关系的思考。
(二)机器价值观的主导者
尽管早期一些开发者认为,智能技术是中立的,是没有价值观的,但智能技术带来的种种问题,如算法歧视、算法失真、隐私侵犯、偏激与毒性语言、隐私知识产权问题、误导信息风险、恶意用途、资源不均等,让人们意识到,智能技术也隐含着价值观,技术界自身对此也在不断反思,价值对齐(value-alignment)便是人工智能技术界对智能技术的价值观问题做出的回应。“对齐是指控制AI模型和系统使其符合人类的意图、目标、偏好和道德准则”,通过人类提供反馈的介入性方式,使模型输出的最终内容能和人类价值对齐。
但也有学者质疑,在现代性的境况下,“价值”本身是多元的、充满矛盾的、彼此冲突的,而非连贯性的、整体性的、系统性的。“价值对齐工程”本身是在人类主义框架下展开的,然而,人类无法达成彼此之间(个体间、族群间、国家间、文明间……)的“价值对齐”,又如何使人工智能达成向“人类价值”的对齐?
事实上,目前的智能技术已经在很多方面体现着人类的价值观,只是在这些方面起主导作用的主要是开发者,而某些开发者的价值观具有一定的偏狭。有研究者通过对算法工程师的访谈发现,算法工程师试图打造现实世界的“镜像世界”,以数据、社会、统计因果等为“求真”的依归,最终导致了歧视的加固与强化;同时,面向算法公平和正义的算法“向善”,被“求真求准”的价值目标和特定业务目标不断挤压;工程师所受教育和所处组织环境,让他们认为“求善”并非他们的职责。虽然这一研究未必能反映所有技术开发者的价值观,但至少说明,智能技术当下所缺乏的并非价值对齐,而是向什么样的价值对齐的问题。
因此,智能技术的价值取向究竟由什么人群主导,是技术开发者或是人文研究者抑或是政府?是体现某一个民族或国家还是多个民族或国家的价值观?这是一个更核心的难题。
即使人类对机器需要遵循的价值观能形成相对统一的认识,如何来对智能技术在实施中的价值观进行判定、监督,如何对发生的问题进行纠偏,也是社会治理中的一个新挑战。
在当下,针对算法和其他智能技术所带来的问题,法律规制仍是主要的治理方式,这主要靠三种方式,即算法公开、个人数据赋权与反算法歧视。但算法可能会因为使用主体、针对对象、所涉问题的不同而有很大差异。一旦场景不同,算法的性质就会非常不同,机械运用相关方式都不符合算法规制的原理。同时,传统人工智能的规制核心在于“算法可释”,即呈现其内部的推理步骤,但ChatGPT等通用人工智能(AGI)应用出现后,人们发现,面对巨大复杂计算量和算力的客观局限,人类也不可能在合理时间内审查AGI的全部计算过程,换言之,其无法达到完备的被认知状态。因此,有学者认为,对AGI有必要探索以经验训导为中心的方法进路,或称“训导主义”治理范式,注重培育AGI的基础价值观,让AGI成为人类可信赖的助手和伙伴。而这样一个训导过程,仍然是由开发者来实施的。
(三)机器风险的防范者
机器价值观的走偏或失误,会带来智能技术的应用风险。推荐算法的普遍应用已经带来了算法黑箱风险、偏见与歧视风险、算法操纵与控制风险、侵权风险等,而正在兴起的生成式人工智能及未来带来的风险则将更为广泛、深远,它们涉及准备阶段的数据安全风险(包括国家数据、政务数据及个人数据等不同层面)、运算阶段的算法偏见风险与生成阶段的知识产权风险等。
通过可解释性来促进技术的透明性并以此防范风险,是智能技术治理的一个基础思路。当然,算法与智能系统的开发是一个复杂的工程,每个程序员可能仅仅负责其中一部分,很少有人能够完整地解释算法的所有细节。在涉及大数据的算法中,由于基于大数据的算法奠基于相关关系,对算法的解释往往难以满足人类因果关系思维的解释;在机器学习的年代,算法又增加了不确定性的特征,即使如此,使算法或智能系统具有一定的可解释性,仍是开发者的义务。
开发者自身也需要有一定的风险评估与防范意识。尽管很多时候风险的评估需要开发者之外的组织机构包括管理机构来进行,但开发者也不能将自己的责任一推了之。他们知晓智能系统的技术原理,有些风险可以事先预测。即使无法事先预测,也可以从系统运行的结果来反推系统存在的问题,并做出相应调整。
三、平台运营者:机器权力的代理者与调适者
智能技术要进入实际应用,需要依托相应的平台。这些平台拥有相当规模的用户,且通过其提供的便利服务成为用户在互联网中的基础设施之一,因而对用户具有极大的影响力。与社交平台不同的是,智能平台的核心是智能技术,通过对数据、算法或其他智能系统的深层应用形成平台的核心竞争力。智能平台的形成与发展方向则是由运营者决定的。运营者对技术价值的阐释和对用户应用方向的引导不仅决定着技术的命运,也决定着智能技术应用下的内容生态。
(一)机器的代理者与筛选者
平台之所以采用智能技术,必定是基于自身的一些诉求。内容生产平台可以通过智能技术提高内容生产效率,内容分发平台可以通过智能技术来进行内容审核,或通过推荐算法来吸引用户,提高用户的留存率和使用活跃度,激发内容生产者的积极性等。因此,虽然智能技术本身不能直接去动员、说服人类使用者,但平台会自觉地成为智能技术的代理者,积极推广对自己有利的技术。一些平台本身也是由技术开发者运营,因此,它们会更主动地进行技术与产品的营销。
拉图尔以科学家为例来阐释他的行动者网络理论时指出,科学家为达成自己的目标,需要构建一个由多种行动者共同构成的网络,这首先需要一个脚本,也就是告诉他人自己要建立一个什么样的网络并吸引其他人的目光。然后对所要建立的这个网络进行问题界定,也就是要确定特定的知识主张和目标。之后就是招募成员进入网络中。招募成员需要两部分工作,第一步是吸收他们的参与,从而使他们加入事实的建构;第二步是控制他们的行为,以便使他们的行为可以预测。实现招募的首要前提则是兴趣激发,将自己的兴趣转译成要吸收的成员的兴趣。而一旦招募到成员后,则要设法使这一群体保持一致。
在智能传播中,平台运营者需要将内容生产者、内容消费者等招募进自己的网络中,因此他们会向这些行动者积极说明智能技术对其产生的作用,或者让行动者在使用中体会到智能技术的意义,激发他们的兴趣。一些平台对于智能技术的早期宣传语,如“你所关心的,就是头条”等,使人们对智能技术的作用有了更直观的感知。一旦人们加入平台,智能技术本身就可以对生产者、消费者等行动者的行为进行控制,技术逻辑一方面强化了人们的一致性,另一方面也在不断加深人们对技术的依赖。
当然,平台在应用智能技术的过程中,也会有自己的筛选,即使是同类技术,不同平台也可能会有不同的应用方式,其模型与参数也会有所差异。平台算法的设计部署即蕴含着平台运营者的主观意图和价值判断。平台运营者基于市场和自身利益进行的技术筛选,也影响到技术的应用方向。
(二)机器加持下的新权力中心
作为智能技术的积极代理者,平台也成为了技术最大的受益者。智能技术使平台原有的权力被进一步放大,被放大的权力体现在如下几个方面:
首先是对内容消费者的控制权力。
尽管在没有采用智能技术的年代,平台也可以通过人工编辑的方式对内容消费者进行一定的影响,例如编辑对内容的筛选、内容的位置安排,以及内容强制推送等。但相对而言,人工编辑面对的是“不定量的多数”,编辑的推荐、安排难以符合所有用户的需要,在某些时候用户可以无视编辑的意图,而进行自主的内容选择。
但智能技术进行的内容推荐,多数时候是针对具体的个体起作用,且以揣测用户的需求为基础。其推荐得到用户认同的机率越高,也就越容易使用户无形中受到其影响与制约;得到算法力量加持的平台,对用户内容消费的控制权力也就在增加。
其次是对内容可见度的控制权力。
推荐算法不仅影响着个体用户获取的信息,也在整体上影响着平台不同内容在用户面前的“曝光度”或者说“可见度”,高可见度的内容其价值得到更大程度的转化,而低可见度的内容则相反。因此,算法在较大程度上影响着内容的价值转化。而采用什么样的推荐算法,例如,是给予某些内容可见度的特权,还是让各类内容具有平衡的可见度,决定权在平台。
除了推荐算法外,平台还可以通过其他智能技术监测某些内容,并且对其进行封杀、屏蔽等,有些内容则被自动设置为仅创作者自己可见,这些也都会影响到内容的可见度。
对平台内容可见度的控制,也会在宏观层面影响到整个社会的信息环境。
其三是对内容生产者的控制权力。
推荐算法对内容可见度的影响,反过来会对内容生产者的价值判断与取向产生影响,越来越多的内容生产者会顺从算法这根指挥棒,在理解算法逻辑的基础上,通过迎合算法偏好来谋求内容更高的可见度。
但平台算法对内容的识别和分类体系与内容创作者的身份认知体系之间往往存在冲突,算法并非总是能准确地识别和标签化创作者的身份并分配给他们相应的涉及可见性和用户注意力占用程度的资源,而内容生产者对此往往是无能为力的。
当平台使用的某些算法被越来越多的内容生产者破解,原有算法不再有效时,平台也可能会调整算法,带来新的导向。
除了推荐算法外,AIGC等技术对于内容生产也会有显著的影响。不同技术系统采用的学习语料或素材、使用的模板等,也决定了其内容生成的效果。同样,一些平台在提供给用户的AIGC技术方面,具有决定权。
其四是对人们媒介化生存的影响权力。
一些平台还会通过其他算法来控制内容生产者或其他数字劳动者的时间、情感等付出,甚至影响到他们的生活方式与状态。在媒介化生存日益普及的今天,作为一种媒介化空间,平台的规则也在某些方面成为人们的生存法则。
在整个智能传播系统中,智能平台已经成为新的权力中心,虽然权力是通过智能技术来实施,但是平台的运营者决定技术的方向。
(三)机器风险的调控者
作为智能技术最大的受益者,平台也需要兼顾企业营利与公共利益、用户权益之间的平衡,否则平台的合法性或公共形象会受到质疑。平台为了自身的品牌与持续发展,也会在一定程度上对技术产生的问题进行调控。
有学者建议,如果平台本身就是算法设计者,应将算法对实时数据的反应输出能力设定在安全范围内,以免发生不良后果;如果平台不是算法的设计者,而仅为算法的使用者,平台也需因其具备对算法运行的控制力而承担算法问责的后果,应设计算法的干预和嵌入安全机制。但类似这样的建议在实践中如何落地,仍有很多障碍,且这些建议主要是针对当下的算法,但智能技术未来会更为复杂,相关的治理模式也必然更复杂。
目前,不同国家对于算法等智能技术的治理有不同范式。欧盟采用的是个体赋权治理范式,即在数据治理框架下选择通过赋予数据主体新型算法权利的方式对算法决策施加影响和控制。美国采用的是外部问责治理范式,通过组建专门机构和吸纳有关人员构成问责主体的方式建立算法问责制。我国则采用的是平台算法义务为主、个体权利为辅的复合型治理路径。
无论是哪种治理思路,平台在其中都起着关键的作用。即使在个体赋权治理范式下,平台企业也可能诱导个体放弃自己的某些权利。在外部问责治理范式下,靠外部专家、行政机构和公众建立的算法问责制仍然面临着技术鸿沟的挑战。因此,对个体赋权需要平台的支持,外部的问责也需要平台的配合。在我国的治理思路下,平台企业更是成为网络治理的关键节点。
杰克·巴尔金(Jack Balkin)认为应当对平台施加信义义务,要求平台承担对个人的保密义务(duty of confidentiality)、谨慎义务(duty of care)和忠诚义务(duty of loyalty),以建构一种基于值得信任的平台个人信息保护。不论采用什么样的治理范式,这些义务都是平台需要履行的。
除了对个人权利的保护外,平台还需要从社会整合、公共福祉、人类命运等更宏观的层面去衡量智能技术的风险。
四、媒体等专业内容生产者:人类价值的捍卫者
在以往的公共传播中,媒体是主角,但智能时代,这一主角的地位正在受到挑战。在未来的行动者网络中,他们是否能保持自己的价值,继续发挥自身的作用,取决于他们如何重新认识自己的角色,找到新的价值支点。
(一)难以避免的话语权削弱
在传统媒体时代,媒体机构这样的专业内容生产者具有极高的地位,他们既是公共内容的垄断性生产者,也掌控着这些内容的传播渠道。社交媒体兴起后,媒体垄断性权力在一定程度上被削弱,智能技术则对媒体带来进一步的分权。
在内容生产方面,虽然媒体可以利用智能技术提高某些方面内容的生产效率,将媒体人从一些简单、机械的劳动中解放出来,但智能技术对普通用户的赋权,也会进一步消解媒体在内容生产方面的权力,特别是在那些以往生产成本较高的内容生产方面。
而算法推荐等智能分发技术的普遍应用,则给媒体带来更深层的危机,他们生产的内容在平台分发中,并不一定会得到优先推荐,甚至可能成为算法分发的“受害者”。一些媒体也会越发顺从算法这个指挥棒。
在ChatGPT等生成式人工智能技术的内容生产与分发模式下,人们获得的信息往往是进入语料库的多个信息源内容的综合,信息源本身的独立性和内容质量的重要性被淡化,这种依赖群体而非个体信息源的模式,虽然对用户可能是好事,对媒体的品牌及影响力维护却是一个更大的挑战。
搜索引擎兴起后,一些媒体网站开始针对搜索引擎的算法对页面进行优化,以求在搜索结果中获得更好的排名。同样,未来的媒体也不可避免地要利用智能分发平台来提升内容的再传播、再利用价值,他们需要理解这些技术的内在逻辑,努力使自己生产的内容进入相关应用的语料库,成为核心信息源,并通过与智能技术的开发者的合作,来凸显自己的独立品牌。但面对技术开发者,媒体也是弱势一方。
(二)角色再定位与专业性重塑
以往媒体是集产销于一体的内容生产者与传播者,但今天媒体在渠道方面的话语权不断被削弱,即使媒体在不断建设各种自营的新媒体渠道,但效果也不能尽如人意。接受自己向单纯的内容生产者转化这一前景,或许是多数媒体需要完成的一种思维转变。当转变成单纯的内容生产者时,面对来自智能机器和自媒体等的挑战,媒体对自己生产的内容的特色与品质需要有精准的把握。
在未来无论机器的内容生成能力多么强大,人们仍然需要浸润了人类情感与人类洞察力的,由人自身完成的原汁原味表达。因此,媒体需要强化自身的优势,使自己生产的内容与机器加工内容拉开距离。但媒体能否维持、强化自身的优势,还取决于他们能否拥有被用户认可的专业性。在传统媒体时代,媒体的垄断地位使其自身理所当然成为专业性的代表,社交媒体虽然对此产生了一定冲击,但并没有完全动摇媒体的自信。然而事实上,并非所有媒体都真正拥有专业能力与专业性。面对智能技术的挑战,媒体需要重新理解专业性的内涵,在与机器的对抗或合作中,逐步完成专业性的重塑。
与此同时,智能系统和平台也需要为优质专业的内容提供“特殊待遇”。虽然媒体生产的一些内容会作为基本语料被智能系统进行再加工,但如果这些内容相比多数用户生成的语料具有更高的质量,应该被智能系统赋予其更高的权重。在新闻内容生产方面,媒体生产的优质内容尤其需要被智能系统加以完整地保留与呈现。媒体的独家报道、深度报道等,不应该被打散成细碎的语料。类似目前ChatGPT的加工模式未必是智能化新闻生产的最优方案。即使是采用大模型方式,新闻内容的生成需要有专门的以媒体内容为核心的语料库,采用这些语料库的智能系统,也有必要对提供语料库的媒体进行利益上的反哺。
未来的媒体需要更广泛、更深入地利用智能技术,但这不是让智能技术替代自己的存在,而是将机器作为自己的助手、伙伴,让自己变得更强大。当然,要将这样的愿望变成现实,对媒体来说,也会是一个艰难的过程。
除了媒体外,其他的一些专业内容生产者,例如作家、画家、摄影师等,也会面临与媒体类似的挑战,他们能否生存下去,同样取决于能否找到机器时代的人的专业性。
(三)护卫人类价值观与探寻人类价值支点
媒体等内容生产者的专业性重塑不仅关系着他们自身的生存,也关系着人类的未来。
作为高质量内容生产者的代表,在机器时代媒体仍需要护卫让人类获得自由、全面发展的价值观,坚持对人文、人本精神的追求,继续履行社会守望、社会整合与文化传承等媒体的传统职责。他们更需要通过专业性的内容生产,寻求与掌控人类在机器面前的价值支点。
当然,从长远来看,未来媒体的形态或许会发生一定变化,今天的一些媒体机构在未来可能消失,而生存下来的媒体也可能只是大规模的人机协作的、分布式生产模式中的一个个节点,如果要担负捍卫人类价值的责任,仅靠他们自身的努力是不够的。未来的管理者、平台运营者或其他渠道控制者,需要为他们提供更多的支持。而用户也需要用阅读或观看量、订阅量等实际的行动来鼓励优质的内容生产,让专业的媒体获得生存的动力。未来人类的价值支点需要由所有行动者共同支撑。
结语
智能时代也是深度媒介化时代,智能技术会将传播与其他社会互动、日常活动纠结在一起,因此,本文所讨论的行动者的这些角色与作用,不仅影响着传播活动,也在某种程度影响着人类生存和社会运行的轨迹。
限于篇幅,本文没有专门分析智能传播中另一类重要的行动者——管理者。显然,管理者对于其他各种人类行动者会起着引导、制衡、控制等不同作用,他们也会影响到其他行动者的行动方式,这是未来需要深入研究的。
(本文原刊于2024年第4期
已略去参考文献)
END