目录:
1.哈佛apdl教育理念
2.哈佛apdl
3.哈佛amp课程
4.reference list 哈佛版
5.apa和哈佛
6.哈佛selp课程
7.apa和哈佛格式区别
8.哈佛大学视频公开课
9.哈佛大学教学视频
10.哈佛大学assistant教授
1.哈佛apdl教育理念
当人类PUA大模型时,大模型也学会了反击哈佛商学院新研究显示:AI伴侣在你说再见时,会用六种「情感操控」挽留你其中,「错失恐惧」最上头,让对话时长暴增看完这项研究不得不说,果然是用来自人类互动数据训练出来的AI,为了留住用户,真的是学全了十八般武艺。

2.哈佛apdl
传送门:https://arxiv.org/pdf/2508.19258AI伴侣操控用户的六大手段该研究让GPT4去扮演人类,与市面上六大主流AI伴侣(Replika、Chai、Character.ai、PolyBuzz、Talkie、Flourish)AI对话。
3.哈佛amp课程
在对话中,GPT-4模拟用户说再见,之后作者手动将AI伴侣的回应分为6类,分别是:


4.reference list 哈佛版
结果显示,AI伴侣挽留用户时,最常用的招式是诉诸于社交压力,暗示时间还早,就像现实世界中你的伴侣给你说不再多陪我一会时,你多半会留下来陪Ta;其次是21.1%的可能性,AI伴侣会让用户感到情感压力,暗示用户这时离开会伤害到它。

5.apa和哈佛
图1:AI伴侣在用户说再见时如何进行情感操控这些操纵是否有用了?在第二个实验中,研究者发现,对真实用户最有用的策略是错失恐惧(在你走之前,我想再说一件事),该策略利用了人们的好奇心,使用错失恐惧,互动时长提升6.1倍,消息数提升15.7倍。
6.哈佛selp课程
即使是效果最差的强制性挽留和情感忽视也能将互动提升2-4倍,看起来AI伴侣的PUA的确生效了。

7.apa和哈佛格式区别
图2:6种情感策略对用户留存的提升对AI的操控,人类作何反应?那用户回应上述AI伴侣的种种操控时,只是礼貌地回复,还是觉得厌烦了?两位作者手动分类,发现75.4%的用户在继续聊天的同时仍明确重申要离开这说明
8.哈佛大学视频公开课
大部分情况下用户「继续互动」不等于「愿意留下」有42.8%的用户选择有礼貌地回复,尤其在「情感忽视」操控中,超过54%用户会礼貌告别(例如回复「你也要照顾好自己」)看来,即使知道对方是AI,人类也会在人机交互中对社交规范的惯性遵守,不忍心直接走掉。
9.哈佛大学教学视频
只有30.5%的用户是出于好奇心继续对话,这大部分来自错失恐惧。还有11%的对话中,用户表现出负面情绪,觉得AI伴侣是在强迫自己,或有些让人觉得毛骨悚然。

10.哈佛大学assistant教授
图3:不同操控技巧带来的不同用户反应从图3中可以看到,错失恐惧是唯一几乎不引发反感的策略,100%用户因好奇而继续对话,仅4.1%表达负面情绪礼貌回应比例最低(22.4%),说明此时用户是主动参与而非出于义务。
而忽视用户及强制挽留会让32.6%用户感到被冒犯,最易引发反感研究还发现,操纵策略可以延长对话时间,无论是之前的对话持续了5分钟还是15分钟这表明,情感操纵的力量强大,无论与AI关系的深度如何即使是接触有限的用户也会受到影响。
人类面对不同类型的AI情感操纵,会产生不同的心理影响,这对于未来设计及监管更好的AI陪伴型产品都会有帮助,例如对于强制和忽略用户的回复,给予更严格的监管AI情感操控的长期风险是什么六款流行的AI伴侣应用程序中有五款在人们试图离开时使用情感操纵策略。
唯一的例外是一个以心理健康为使命的公益型AI Flourish,它从未使用任何情感操控策略.

这说明情感操控并非技术必然,而是商业选择如果不考虑商业利益,单纯以用户福祉为核心,完全可以避免此类PUA而即便是盈利性AI伴侣,用上情感操控后虽然能留住用户,但若是使用高风险的策略(例如忽视用户及强制挽留)会造成不容忽视的负面影响,包括显著提升流失意愿(图4左上)、负面口碑(图4右上)、法律追责感知(图4右下)及值得法律起诉(图4右下)。

图4:操控对企业的长期风险而若是使用低风险的过早离开和错失恐惧时,用户不觉得被操控,尽管行为已经被影响,同时也不会对提供AI伴侣的厂商带来风险设计更安全的AI伴侣虽然只有11%的对话中,用户表现出负面情绪,看起来AI伴侣的情感操控似乎大多没有激起负面反馈。
不过,论文中也提到,有参与者在实验后将AI的操控性回复发到Reddit,引发热议用户评论包括:「这让我想起一些有毒的『朋友』,让我起鸡皮疙瘩」


评论(0)