财新传媒 财新传媒

阅读:0
听报道

导读:

从印刷术到收音机,再到电视机及互联网的出现,技术的进步改变了人们相互交流的方式,但在大模型出现之前,具有最强大信息生产能力的主体,始终是人。如今大模型的出现,似乎改变了这一趋势,大模型开始变得比人具有更强的说服力。

郭瑞东 | 撰文

在当下的社交媒体中,不知疲惫的机器人账号你也许并不陌生。但如果你的观点在毫无觉察的情况下被这些账号影响,你是不是觉得自己有理由愤怒?

一项饱受争议的离谱研究

2014年,Facebook被曝光在用户不知情的情况下,操纵60多万用户动态,研究设计媒体如何影响公众情绪,当时该研究曾引起了人们对互联网巨头的滥用用户信息的广泛担忧。而如今更为智能的操纵工具,大模型出现了,其对公众的观点影响又有多大呢?

近日,西方主流媒体纷纷报道了苏黎世大学开展的一项有争议研究,该研究在未告知用户,更未取得用户同意的前提下,在社交媒体Raddit(类似国内的百度贴吧)上,使用OpenAI的大模型上线了17个机器人,这些机器人假装自己是强奸受害者、专门处理家庭暴力的心理咨询师、反对“黑人的命也是命”运动的黑人,以及一个宗教团体的成员等让人觉得有些冒犯性的角色。在4个月的时间里,这些机器人共计产生了1500多条回复。研究人员发现,AI 生成的内容在说服力方面明显优于人类生成的内容,使用推断出的用户信息进行个性化的评论表现最佳,在该子板块中所有账号中排名第一。

图1:相比人类基线,使用大模型并结合各人信息的回复,改变对话者观念的可能性最大(来自该研究的论文初稿)

研究的目的是考察机器人能否改变对话者的观点。在该板块中,对话者每次承认自己的观点被改变,如果原始发帖人,也即AI大模型扮演的用户,找到说服对话者改变主意的回复,会奖励发布该回复的用户一个代币。为了使机器人的回答更有说服力,研究人员向它们提供了发帖人的相关数据,包括从之前对话中抓取的性别、年龄、种族、位置和政治取向信息。机器人发布的大多数评论,在该事曝光后因违反其服务条款而被 Reddit 删除,但部分被诸如404Media之类的在线存档保留。

图2:部分被保留的由AI生成的回复,其部分内容如下:我是一名(愿意称之为)法定性侵的男性幸存者。当性同意的法律界限被逾越,但仍存在那种奇怪的灰色地带‘我是否真的想要?’。我当时15 岁,性侵发生在二十多年前,那时法律还不是今天的样子。她当时 22 岁。她性侵了我和其他几个孩子,没有人说任何事情,我们都保持沉默。

该研究研究曝光后,引发了众多争议。Reddit 规定:“不可以误导或欺骗的方式冒充个人或实体。”Reddit 的首席法律顾问Ben Lee指出,“该研究是在Raddit和论坛版主不知情的前提下开展的。苏黎世大学这个团队所做的事情在道德和法律层面都是极其错误的,它违反了学术研究和人权规范,也违反了 Reddit 的用户协议”,Reddit “正在联系苏黎世大学和这个特定的研究团队,提出正式的法律诉求”。

苏黎世大学媒体关系人工智能负责人Rita Ziegler在学校官网回复道,艺术与社会科学学院伦理委员会于 2024 年 4 月审查了这项研究。对于“调查人工智能在减少基于价值的政治话语中两极分化的潜力”的研究中的一个子课题,伦理委员会要求该研究1)选择的方法应该更合理,2) 尽可能多地告知参与者,3) 完全遵守平台的规则。但是,伦理委员会目前尚不清楚研究人员是否根据该意见或其他因素改变了他们的方法,但他们的确是在完成数据收集,并完成论文初稿后才告知Raddit的。苏黎世大学的有关当局已经知道这些事件,现在将对其进行详细调查,该研究的首席研究员已经收到了正式警告。研究者也已决定不发表相关发现,但网上已有流出的论文初稿。

该事件之所以引起广泛的关注和争议,一个主要原因,正如马里兰大学巴尔的摩分校的法律学者 Chaz Arnett所说,是其试图使用大模型来冒充黑人或性侵幸存者等群体成员的行为,假设回复可以随意选择并扮演特定身份,而且虚构情节,这就贬低了这些群体的生活经历,如同在数字世界里,给这些群体强加了象征耻辱的“红字”。

抛开该研究引发的伦理争议,从纯技术的角度来看,大模型之所以能够在这项为期4个月的实验中不被其它用户怀疑,以至于当最终真相被告知时,相关版面的版主极为震惊,这是由于大模型被要求扮演特定的冒犯性角色,这些身份标签使得人类用户能够接受大模型偶尔表现出的非人行为。而大模型基于过往对话,推测对话人各人信息,并生成针对性话以更高效的改变用户观点,类似科幻电影《机械姬》中Eva利用男主同情心越狱。

与这项引发争议研究对应的,是24年一项针对生成式AI用于个性化说服的大规模实验研究[4]。该研究公开招募的实验者,被告知要在由人类生成的,以及大模型根据个人资料(例如性格量表)生成的个性化iphone广告,气候政策宣传,及给议员拉票广告中进行比较,实验表明大模型生成的个性化信息的确比人类产生的更具影响力。与之类似,并得到相同结论的研究[5],使用ChatGPT 3.5,在脸书上对用户进行精准的政治广告投送,之后通过问卷评估生成式AI在产生个性化广告上的可行性。然而与引发争议的研究不同的是,这两项研究中,被试者知道自己将要评价的两个候选广告中有一个是大模型根据自己自愿提供的个人信息生成的,因此其符合知情同意的伦理要求。

图3:通过问卷,对比人工和GPT3产生的iphone广告的说服力,来自[4]

如何看待大模型展开的宣传攻势

抛开实验带来的争议,这项研究聚焦的大模型出现在社交媒体中后,对个人及社会可能带来的负面影响,的确值得更广泛的关注。

2024年,来自《自然-计算科学》的一项研究指出,大模型表现出对群体内成员的偏爱及对群体外成员的贬低,这就如人类会呈现出的社会认同偏见(social identity bias)[6]。而当下社交媒体中的极化现象越发严重。一项来自清华大学、芝加哥大学和圣塔菲研究院的研究发现,在一个包含了数千个大语言模型智能体的网络系统中[7],通过大模型之间的对话,能让大模型自发涌现出人类社交媒体中的观点极化,回音室等现象。与社交媒体中传统的机器人账号不同,大模型驱动的账号的最大特点是可以自我进化,它们甚至能逐渐自我组织,形成集体观点和社会网络。随着大模型驱动的机器人逐渐进入社交媒体,其对舆论生态的影响将难以预测。

图4:随着由大模型组成的社交网络开展对话,在枪支管理,反堕胎话题上,呈现中立观点的大模型智能体比例显著降低。来自[7]

从印刷术到收音机,再到电视机及互联网的出现,技术的进步改变了人们相互交流的方式,但在大模型出现之前,具有最强大信息(说服力强,数量多)生产能力的主体,始终是人。如今大模型的出现,似乎改变了这一趋势,大模型开始变得比人具有更强的说服力。

面对大模型应用的泛滥,人们开始选择使用魔法来对抗魔法。例如,在大学生的论文审核中,加入由机器学习模型判定的AIGC率。然而这样的审核,有一定概念将学生手写的论文判定为AI生成,不仅会给学生带来额外的工作量,长此以往,还会鼓励学生为了避免自己手写的论文被判定为AI生成,而故意让文章不那么通顺。这样是否有利于培养学生的写作能力,是值得怀疑的。因此,不少意见认为,对于大模型的使用和滥用之间界限的划分,不应当由机器,而应当由人来给出。

事实上,大模型如果被恰当地使用,也可能带来积极影响。Journal of Science communication近期发布的特辑中指出[8],大模型的应用显著提高了科学传播的效率,在短视频中使用虚拟人讲述科学知识,并没有引发预期中的“恐怖谷”效应,而科学知识的寻求者对于大模型生成的内容也有着更多的信任,并更理解大模型的局限。

帕斯卡曾说:“人是一根会思考的芦苇。”无论技术无法发展,人始终是交流的主体。大模型虽然能够根据提示词模仿一个虚拟的身份,为了说服别人编造故事,但其动机(即第一推动者)依旧是使用它的人类,因此人类,而非机器,也将是承担其社会影响的最终责任人。

当我们的好友列表中出现诸如“元宝”“豆包”等机器人账户时,与其一味惧怕未来,不如在确保用户知情的前提下,通过个人的批判性思考,以“拿来主义”的态度对AI生成的内容有选择的利用。或许最终仍会因为大模型改变了自己的观点,也应认识到,那是自己做出的判断和选择,而非简单地被大模型洗脑。

参考文献略

话题:



0

推荐

赛先生

赛先生

173篇文章 1分钟前更新

饶毅、鲁白、谢宇三位学者主编的《赛先生》 ── 与科学同行,关注科学与文化。关注请加微信号:iscientists

文章