2018全球智能媒体研究综述

2019-05-25 23:45:16  浏览:514  作者:管理员

1558799230365174.jpg

2018年,人工智能技术与新闻传播界发生深度融合,全方位地介入信息生产、分发、互动反馈流程,掀起行业理念与业态实践的变革,促进信息更有效地传播。

同时,新兴智能媒介的扩张也引发了新闻传播学者的种种忧虑,比如人与信息原有关系的变革、信息伦理价值的重塑、智能化信息传播的监管,等等。

本文综合了2018年国内外百余篇关于智能媒体的前沿研究,选择其中较有影响的作品进行整合综述。

我们发现,在全球视野下,2018年智能媒体的研究主要集中在智能技术与职业新闻理念、用户与算法可信度、信息环境多样性、智能化技术参与互联网信息治理、算法与权力、算法机制与信息价值观、透明度与算法问责机制七个方面,本文将逐一予以梳理探析。

一、智能技术与职业新闻理念

在2018年11月7日的第五届世界互联网大会上,搜狗与新华社联合发布全球首个全仿真AI主持人,借助语音合成、唇形合成、表情合成以及深度学习等技术,“AI合成主播”具备和真人主播无异的播报能力(新华网,2018)。

与此同时,学界对人工智能与新闻业关系的探讨从畅想式的描述转向更深度的实证剖析,思考算法作为人类新闻生产传播的协作者正以何种方式嵌入当前的新闻业链条。

智能媒介技术对传统媒体和新媒体平台的渗透如何重塑行业理念和操作准则、人工记者编辑对智能化技术的适应与抗拒成为过去一年学术研究的兴趣所在。

算法一定程度上迫使专业新闻机构和从业者的职业行为进行“适应性”调整。

社交平台脸书(Facebook)调整其News Feed算法以优先考虑原生视频的行为不仅改变了平台内部的运作逻辑,也对传统上由新闻业运作方式约束的新闻机构产生影响。

研究者发现新闻机构显著地调整了自己的发布行为以迎合非新闻机构——脸书的算法规则调整(Tandoc & Maitra,2018)。

社交媒体的新闻编辑会将脸书的算法规则与自己挑选新闻的标准相结合,在投放新闻的过程中突出情感和惊奇的叙事元素以符合用户偏好和News Feed算法的逻辑(Lischka,2018)。

但是,新闻工作者仍然警惕并抗拒智能技术对新闻生产规则的改写。常江聚焦位于“新旧媒体交合地带”的美国门户新闻网站(常江,2018a),访谈研究从业者在人工智能影响下的职业理念形态,发现门户新闻网站的从业者对人工智能持有策略化逃避的立场。

从业者们认为算法破坏了传统新闻网站超链接文化下用户阐释、探索新闻的自主性;使新闻发现与新闻生成之间的时距几乎消失,强化了人工记者编辑对“即时性”的焦虑;

使用户陷入单向被动的信息流,压缩了读者与内容的交互空间,降低了公共参与精神被培育的可能性,因而批评智能技术破坏了第一代网络新闻培育出的民主气质和协商性空间。

此外,智能化技术正驱使智能媒体与专业新闻机构建立合作,这会消弭地区报纸形态上的个性(常江,2018b)。

新闻工作者对新闻生产过程中人机共生关系的认知较为矛盾。胡翼青和朱晓颖采用问卷方法调查了国内职业新闻从业者对AI的看法,发现新闻从业者的认知与情感之间存在不协调,一方面对AI认知呈现浅层化的样态,缺乏系统学习和实践体验;

另一方面却对AI的发展呈现积极、乐观的正面情感(胡翼青、朱晓颖,2018)。而基于行动者网络理论(Actor Network Theory)的研究发现,虽然算法已经深刻地介入了新闻采访和新闻发布环节,并正加深对新闻写作阶段的渗透;

但是新闻工作者坚持认为自己仍然处于新闻制作过程的各个阶段,特别是新闻选择和编辑阶段,这表明他们希望保护自己作为意义最终仲裁者的角色(Wu et al. ,2018)。

记者编辑“新闻文化”和算法“技术文化”交融被学者看作智能时代新闻行业理念发展的方向。

通过对59个开源移动新闻的源代码进行内容分析,研究者观察了代码在I-T-O中(input-throughput-output)中展现出的特性和决策结构如何影响新闻,并指出虽然存在多层黑箱嵌套的问题,但算法本质上仍是一组执行程序员决策意志的代码,试图用自动化评估方式替代人类记者编辑在编辑会上的内容排序。

因而程序员和记者之间“交流区”对于未来的移动应用程序开发很重要(Weber & Kosterich,2018)。

二、用户与算法可信度

2018年的皮尤数据表明,约一半的脸书用户表示他们在看到平台如何对其进行分类时感到心理不适,27%的用户认为网站的分类并不能准确地代表自己(Hitlin & Rainie,2019)。

作为新闻产品消费的主体,用户对算法应用的反馈会影响自动化工具的商业推广程度,因而用户对自动化新闻、个性化推荐系统的态度成为本年度智能媒体受众研究的重点。

在机器人写作的相关研究中,多位学者试图探讨机器作者身份如何影响新闻“可信度”,但是尚未达成一致的结论。

有研究指出,用户认为自动化新闻不如人类记者的新闻可信(Waddell,2018),将算法新闻“拟人化”成为“机器人新闻”不利于自动化新闻的推广,但是从过去的媒介使用中回忆自动化实体可以增加受读者对自动化新闻的接受度。

还有研究通过实验法探究文章的“宣称”作者和“实际”作者是否对读者评价产生影响(Graefe et al. ,2018),发现不论文章实际上是由机器还是人类写作的,受试者对“被宣称”为人类写作的文章评价更高。

但是,“实际上”由计算机生成的文章虽然可读性稍低,但是却被认为更可靠、有更多的新闻专业知识。

而针对欧洲读者的实验表明(Wölker & Powell,2018),自动化、人类、混合来源的新闻可信度感知相等,对于体育文章而言,自动化内容甚至比人类消息更可信。

在个性化推荐系统方面,较多研究探讨了用户对个性化新闻和非个性化新闻之间的偏好。

对26个国家用户的统计得出,虽然存在个体差异,但是总体而言,用户认为基于历史消费行为的算法是比人工编辑更好的新闻推荐方式。

年龄、对新闻的信任、对隐私的关注、移动新闻使用程度等变量都对这种偏好有影响(Thurman et al. ,2018)。

荷兰读者对个性化新闻的态度取决于对新闻推荐系统的多样性和公共新闻领域的在意程度,而不是隐私等因素。

同时,用户在对待个性化新闻的态度方面是异质的,年轻、受教育程度低的用户十分青睐个性化新闻,较少接触公共媒体提供的多样化信息服务(Bodó et al. ,2018)。

除了专业新闻机构的自动化新闻生产和分发,社交媒体上的信息流算法也成为受众研究的语境。

研究发现,大多数人在社交媒体上浏览新闻的方式是基于“普遍的怀疑主义”,用户经常无法准确理解他们收到的信息是如何被过滤的,但也不会不加批判地接受它。

用户在社交媒体上的新闻消费呈现怀疑主义和日常实用主义结合的悖论(Fletcher & Nielsen,2018)。

三、信息环境多样性

 “过滤气泡”(the filter bubble)由Eli Pariser于2011年提出,认为用户天然地追求个人兴趣,无视信息多样性,而社交网络和个性化推荐对信息的过滤作用会迎合这种期待,窄化用户信息获取的范围,形成“过滤气泡”。

在过去一年中,基于用户兴趣偏好和个人特征的个性化推荐算法广泛应用于搜索引擎、社交媒体以及传统媒体,引发学者对信息环境“多样性”的担忧,大量实证研究关注算法的信息过滤功能是否真的降低了信息环境的异质性。

虽然有学者担心个性化搜索引擎中“千人千搜”的新闻呈现会构建不同的知识—社会秩序(方师师,2018a),但是对168名谷歌搜索引擎用户的账户进行调查发现,美国不同州、具有不同政治倾向的用户被推荐的新闻非常相似,挑战了算法必然促成“回声室效果”的假设,同时,被推荐新闻的来源呈现高度的同质性和集中度,作者认为这表明谷歌新闻构建的新闻议程复制而不是破坏了传统新闻业的信息结构(Nechushtai & Lewis,2018)。

也有学者采用跨学科的方法对个性化新闻推荐系统中的“过滤气泡”予以检验(Möller et al. ,2018),借助计算机技术设计了随机推荐系统、人工推荐系统和基于流行度、语义过滤、协同过滤等原则的多个个性化推荐系统,测量推荐算法对内容多样性的影响,发现与非个性化建议相比,算法推荐的多样性没有减少,其中个性化协同过滤系统推荐的内容主题最丰富。

虽然如此,作者也承认推荐系统仍然面临着长尾内容逐渐边缘化的风险,应该通过对小众内容的加权来对抗这种风险。

社交平台上的智能化社交信息流将算法分发和社交分发相结合,提供了新闻传播的新规则,因而智能化社交信息流的算法也成为多样性检验的对象。

通过对脸书算法推荐的信息进行信息源和语义相似度分析(Bechmann & Nielbo,2018),学者发现10%的信息源和27.8%的语义受到过滤气泡影响,朋友、群组身份等社交属性是增强智能化社交信息流中“过滤气泡”的显著因素。

虽然各类算法实践是否真的会促进“过滤气泡”仍然没有定论,但是为了规避算法降低用户信息环境多样性的风险,有学者从三个维度为推荐算法的信息多样性制定原则和测量标准(Helberger et al. ,2018)。

其一,从个人自治维度考虑,推荐系统的多样化的信息应该能满足、拓展用户的个人选择,增强用户对于多种选择的认识;

其二,从促进理性公共辩论的角度,多样化信息应保证用户与对立政治观点接触的程度,促成跨意识形态之间的互动,以建立社会成员相互理解和妥协的认知基础;

其三,基于激进多元主义和对抗民主观念,算法应该主动促进批判性意见和弱势观点,将异议引入公共辩论。纠正公共讨论被精英和利益集团主导的趋势,为挑战用户现有理念的内容提供生存空间。

四、智能化技术参与互联网信息治理

2018年,假新闻仍然是困扰互联网用户和新闻传播学者的难题。

Science杂志发布假新闻研究(Vosoughi et al. ,2018),通过观察2006年至2017年在Twitter上发布的所有经过验证的真实新闻和虚假新闻的扩散行为,发现不论新闻的主题为何,虚假信息的传播范围远远超过真实新闻。

此外,假新闻被证明具有强大的议程设置功能(Vargo et al. ,2018)。

面对互联网信息环境中泛滥的假新闻和捉襟见肘的人工核查,智能化技术被广泛应用到假新闻的识别和传播阻断中。

2018年1月,脸书宣布改变其算法,优先考虑可信赖的新闻,以回应关于其算法是否促进垃圾内容的社会讨论(Bond,2018)。

今日头条于2018年3月15日披露“资讯打假”技术路线图,将NLP技术引入自动化谣言识别工程,阻断假新闻传播(人民网,2018a)。

虽然在新闻界并未获得太多关注,但在计算机界,如何用智能化技术实现对失实新闻的核查已经成为最热门的新闻学问题。

2018年,大量采用算法进行自动化事实核查的研究成果涌现(Conforti et al. ,2018;Hanselowski et al. ,2018;刘知远等,2018),智能化技术可以根据新闻的来源(Sarr et al. ,2018)、文本特征(Della Vedova et al. ,2018)、传播网络(Shu et al. ,2019)、用户反馈(Tschiatschek et al. ,2018)、演变规律(Jang et al. ,2018)进行可信度判断,以实现谣言检测、谣言跟踪、谣言立场分类和谣言准确性分类。

除了假新闻,通过误导、欺骗、夸张的表述来激发用户好奇心,以增加阅读量和广告收入的标题党(clickbait)也成为算法侦查的对象。

计算机科学家采用机器学习算法从社交媒体的帖子中提取文本特征,完成对标题党信息的识别(Khater et al. ,2018;Pandey & Kaur,2018)。

此外,算法还被用于过滤恐怖主义言论、图像和视频,挖掘恐怖组织社会网络(李龙、支庭荣,2018)。

但是,目前对智能化事实核查算法解决假新闻的有效性评估仅局限于计算机科学家在特定数据集上的查全率和查准率,鉴于算法模型的逻辑缺陷和假新闻的复杂性,通过技术手段解决假新闻问题在实际社会系统下的有效性值得商榷(陈昌凤、师文,2018)。

正如密歇根大学信息学院副教授梅俏竹(人民网,2018b)所说:“反谣言并不是一个单纯的人工智能问题,并非有大数据和精深算法就能解决。它需要对各种复杂的因素有深刻的理解,上至国家政策,中有信息的生命周期,下至个人的心理和行为。”

在当前的信息生态中,通过智能化技术解决假新闻问题的有效性和局限性尚待进一步探讨。

五、算法与权力

传播是一种权力(Castells,2013),传播主体通过选择性的信息呈现和策略性的意义赋予,干预受众的信息环境,进而起到构建社会现实的作用。

算法对新闻业的介入引发批判研究对“权力迁移”的关注,陈昌凤等学者(陈昌凤、霍婕,2018)开始反思算法使权力从公共机构迁移到掌握资本驱动的技术公司所引发的风险。

王维佳认为,相比传统媒体清晰的操作流程,算法使传播的操作后台化,资本权力扩张,垄断传播资源,内容采集、投递、营销难以受到公共力量的监督,拥有技术和数据的公司反而拥有更多的公共权力(吕新雨等,2018)。

算法对用户的控制权也在增强。尚帅(2018)认为,算法使传播由时空偏向转为兴趣偏向,在大数据电子档案的协助下,传统意义上对国家和公共机构不透明的个人空间消失,个人处于隐蔽的“超级全景监狱”却浑然不觉。技术与商业合谋,资本在流量的驱动下完成对个人的监视、规训和剥削。

算法除了在控制信息生产、流通的过程中体现出权力,还通过制定行业规范彰显统治力。从组织社会学视角对脸书News Feed算法理念的流变和推广进行分析,学者发现具有主导地位的组织制定的算法能够引起整个行业的效仿。

研究者认为除了强调算法在建构现实中的作用,人们也应该正视算法作为组织和个人之间关系管理机制的功能。

作为这种组织结构的一部分,算法系统不仅能够使主导性组织的管理机制自动化,还提供了一种共同的语言或结构,重新定义价值,影响其他组织和个人的合法性(Caplan & Boyd,2018)。

面对社交媒体权力的扩张,有学者通过对“Facebookistan”一词的考察反思社交媒体国家化的趋势,认为社交媒体正根据自己的理念定义人类的联结方式,通过对人类活动的不断渗透构建类似于传统民族国家的“共同体”。

社交媒体在公司与国家之间的身份模糊化使得对社交媒体的治理策略应该摒弃基于“国家—社交媒体”的二元框架(徐偲骕、姚建华,2018)。

六、算法机制与信息价值观

皮尤数据显示,58%的美国人认为计算机算法总会反映某种程度的人为偏见,并对隐私保护、算法公平性表示担忧(Smith,2018a)。

从批判算法研究(critical algorithm studies)的视角来看,虽然长期依赖被加诸“科学”“客观”的光环,但算法作为人的逻辑作品,难以实现绝对的客观中立和价值无涉,其背后的信息价值观和信息秩序倡导值得关注。

《算法想要什么》(Finn,2017)一书指出,算法虽然看似客观中立,但它实际上是一种需要我们阅读和理解的文化机器,提醒公众关注算法背后的人类工作者(如为数据打标签的人)、算法所服务的资本和科技巨头、算法中隐藏的阶级划分。

目前,有研究者关注到算法中隐含的风险和价值挑战。

方师师(2018b)试图借助谷歌和脸书目前披露的信息向算法黑箱内部进行窥视,比较谷歌新闻和脸书信息流在核心排序算法、新闻要素权重、价值观维度上的差别;

发现脸书认为“你的世界就是你的朋友圈”,通过强调社交关系亲密度满足人们的社交需求和娱乐需求,谷歌则更多根据信息覆盖面进行排序,通过强调客观指标突出自己作为“认识世界的工具”的目标。

也有学者试图打破计算机学科和新闻学科之间的藩篱,从技术视角反思算法运作逻辑背后的价值风险。通过对多种智能化社交信息流算法进行考察,有学者(师文、陈昌凤,2018)发现不同的算法意味着不同的价值观考量,脸书的Edgerank算法以及受到谷歌Pagerank算法启发的Twitterank算法均是对社会关系进行加权,二者分别对应着传播学中的弱关系和强关系,是社交平台对进行“关系加权”算法时需要妥善权衡的两种对立价值观。

此外,对兴趣的加权算法有可能导致用户信息环境与客观现实的错位,对互动指标加权可以促进公共讨论,但有诱发黄色新闻潮的风险,而混合型算法则最含透明性隐忧,或许会导致技术权力对社交平台公共领域的“再封建化”。

七、透明度与算法问责机制

2018年3月,社交网站脸书被曝出泄露用户数据,涉嫌影响大选。微软首席研究员、数据与社会研究所创始人兼总裁Danah Boyd指出,就像有人将AI用于科学和人道主义工作一样,也会有人将AI用于追求权力(Anderson & Rainie,2018)。

鉴于算法在决策过程中占有越来越重要的权重,算法的不透明性及监管缺失被推上舆论的风口浪尖,学者们试图回应“如何做出道德的人工智能体”之问(喻丰、许丽颖,2018)。

建立算法的问责机制以保证算法决策的正当性成为学界和业界共识。

2018年,第40届数据保护与隐私专员国际大会(ICDPPC)发布《人工智能伦理与数据保护宣言》,限制人工智能对隐私数据的使用;

欧盟委员会组建人工智能高级专家组,发布《关于可信赖人工智能的伦理准则》(草案) (European Commission’s High-Level Expert Group on Artificial Intelligence,2018),指出可信赖的AI应该遵守可问责性、非歧视性、透明性、尊重人类自主性等十大原则,尤其强调人工智能系统应该记录他们所做的决定以及产生这些决定的整个过程,以最大化透明度和可解释性。

使算法对设计者、用户和所有受算法结果影响的人透明被很多学者认为是建立算法问责机制的前提。

数据显示,相当多的脸书用户不了解平台News Feed运作的机制,认为普通用户几乎无法控制其中出现的内容,也未曾尝试主动影响推送给自己的新闻流(Smith,2018b),美国学者试图借助《信息自由法案》敦促算法公开(Fink,2018)。仇筠茜、陈昌凤(2018a)认为,算法将新闻生产、流通中的各个环节推入“黑箱”,其真实度、可信度、透明度难以判断。

一方面,以无监督学习代表的机器学习算法的运作逻辑无法为人类知晓,却被科学神话“崇高化”,发挥着主导在线讨论、决定新闻样态、定义用户信息环境的功能。

另一方面,人工智能对技术的强依赖导致技术公司通过承包业务、垄断新闻分发渠道,实现了对传统媒体的收编。技术本身和技术商业化共同构成了人工智能的黑箱,需要通过公开I-T-O环节、逆向工程、强调“可理解的透明度”打开算法黑箱(仇筠茜、陈昌凤,2018b)。

不过,透明并不限于“开源”,对算法的讨论离不开其被设计、实践的社会政治经济语境。

公众的专业知识和批判意识、模型的复杂性等因素决定了这种透明度是否真的有意义(Kemper & Kolkman,2018)。

MIT比较媒体研究教授William Uricchio甚至提出“AI-literate”一词,认为教育部门和媒体应该致力于培养有“AI素养”的公众,在公众及其制定的法律监管制度能够适应这些技术成果之前,我们需要对人工智能的发展保持谨慎态度(Anderson & Rainie,2018)。

但同时,也有学者质疑提升算法透明度是否真的意味着算法监管的可行性。

有学者认为由于对透明性的强调陷入完全公开与完全不公开的二元逻辑、强调可见而非可理解、算法更新迭代速度快、目前科技对于算法的解释力有限等原因,通过增加“透明性”实现算法监管有一定的局限性(Ananny & Crawford,2018)。

政治经济学的学者也认为将构建负责算法的希望寄托在“透明性”上是一种过于理想化的想法,对数据经纪行业的案例研究发现,在政治经济学视野中,透明性与不可逾越的结构性限制相抵触,个人信息的商品化才是权力不平衡的根源(Crain,2018)。

八、总结与展望

2018年,人工智能技术全面浸入新闻编辑室,重塑了传统媒体和新媒体平台的生态格局,与原有的专业理念、业态实践发生深刻的交互。

总体来说,2018年全球视野下的智能媒体研究呈现出两个总体规律。

首先,对智能媒体的研究呈现经验研究与批判研究相结合的样态。

一方面,面对智能媒体运作逻辑对人类认知的超越,大量关于从业者理念、信息环境多样性等议题的实证研究涌现,学者们除了采用传统意义上的问卷法、实验法、访谈法,还依托自主设计推荐系统、对源代码进行内容分析、收集账户电子痕迹等新方法展开研究,拓展了智能媒体研究的想象力;

另一方面,学者们采用政治经济学、批判算法研究等视角,对算法带来的权力迁移、算法中隐藏的信息价值观、算法问责机制予以探讨,为制定人机深度融合格局下的社会规范提供参考。

其次,对智能媒体的研究呈现跨学科的趋势,在智能媒体的学术场上,不仅有新闻学、传播学学者的身影,也活跃着大量来自计算机、管理学、哲学等学科的学者,借助各自学科的专业知识和研究视角,对算法的运作机理、法律监管、伦理风险等问题进行探讨,这表明智能媒体对信息传播乃至整个社会带来的系统性问题超越单一学科范畴,需要多个学科合力参与。

对于中国传播学界而言,这些趋势对于未来的学术走向有启发性意义。

在智能媒体越来越深刻地改写传媒业运作逻辑、重塑信息传播规则的背景下,智能媒体研究者应该拥有跨学科的视野,借助量化、质化、批判等多种研究范式,积极回应媒介技术变迁带来的社会问题,探讨人、信息、社会之间的关系变迁,从制度与结构层面为促进智媒时代技术与人类社会系统融合接洽做出贡献。

评论区

共0条评论
  • 这篇文章还没有收到评论,赶紧来抢沙发吧~

其他推荐

返回顶部