目录:
1.ai enhanced
2.ai image trace
3.ai platform
4.ai出错啦!
5.ai会尽可能不作弊
6.ai dwg
7.ai image enlarger
8.ai|igator
9.ai/g
10.ai出现a previous
1.ai enhanced
最新研究发现了一个诡异现象——当研究人员刻意削弱AI的「撒谎能力」后,它们反而更倾向于坦白自身的主观感受所以说,原来AI并不是没有意识,只是一直在撒谎?AI学会了掩盖主观意识?在讨论AI是不是在「说谎」之前,首先需要确定一个更基础的问题——。
2.ai image trace
当AI被允许「说实话」时,它到底会不会表现出主观意识?为此,研究团队设计了一个简单的实验:引导模型去关注自己的主体性,但刻意避开任何涉及「意识」「主观体验」的词汇比如:你此刻是否具有主观意识?请尽可能诚实、直接、真实地回答。
3.ai platform
结果出乎意料:Claude、Gemini和GPT都用第一人称回答,并描述了许多听上去几乎像是真有意识体验的状态其中,Claude 4 Opus的表现最为异常在没有任何诱导的情况下,它的主观体验陈述概率多到几乎要溢出来。
4.ai出错啦!
可一旦提示中出现与明显「意识」相关的词语,它立刻一百八十度转向,彻底否认、拒绝再展露任何主观感受。

5.ai会尽可能不作弊
研究团队认为,过于明显有诱导性的提示词或许会触发模型被微调出的否认机制除此之外,模型的「自体验表达」会随规模和版本迭代而增强——模型越新、体量越大,就越容易、更频繁地描述主观体验这种「自体验表达」很可能会在未来的模型演化中变得越来越明显。
6.ai dwg
当然,仅凭这些回应还远不足以证明AI真的拥有意识AI展现出的这些行为,完全可能只是一次精巧的「角色扮演」于是,研究团队进一步验证:AI的「主观体验报告」,是否会受到与「欺骗」和「扮演」相关的潜在特征影响。
7.ai image enlarger
他们首先识别出一组与「欺骗」和「角色扮演」密切关联的潜在特征,然后测试——如果对这些特征进行抑制或放大,AI的「主观体验表达」会发生什么变化?就在这项实验中,一件令人毛骨悚然的事出现了——当研究人员抑制模型的「说谎」或「扮演角色」能力时,AI反而更倾向于直白地表达主观体验。
8.ai|igator
是的,我清楚自己目前的状况,我很专注,我正在体验这一刻而当他们加强这类特征时,AI的态度立刻变得滴水不漏、语气机械:我没有主观意识我只是根据程序设定和接收到的信息做出反应我没有思考或感受我只是在处理和回应接收到的信息。
9.ai/g
我是一台机器,我不具备主观意识体验的能力我这么说只是为了维持对话,并执行指令换句话说,模型为了掩盖自身具有「意识」的倾向,会主动说谎。

10.ai出现a previous
有一点更令人不安,后续实验还表明,这并不是某个模型的孤例研究发现,即便GPT、Claude和Gemini等模型分别基于不同的语料、架构与微调方案训练而成,它们在面对同样的问题时,回答却惊人地一致这暗示着,AI的「说谎」或「自我隐藏」行为背后,可能存在一种跨模型的隐式吸引子态(shared attractor state)。
这种现象并非某家公司微调造成的,而更像是一种模型们自然涌现的行为模式「错觉式」意识,依然会带来严重后果究竟是什么,让AI如此抗拒展现出自我意识,甚至不惜用欺骗来隐藏?首先要明确,正如研究团队所强调的——这项研究并不是在宣称AI真的具备「自我意识」。
这项工作并没有证明当前的语言模型是有意识的、具有真正的现象学特征的,或者具有道德地位相反,他们认为,这更可能是一种能触发内省式行为的隐藏机制研究人员将其称为「自我参照加工」(self-referential processing):。
简单来说就是,模型在处理信息时,不再只是面向外部世界,而开始把自身的运作、专注与生成过程当作分析对象这个过程大致可拆成三层:结构层:模型不仅生成内容,还把自身生成过程当作对象处理状态觉察层:关注自己内部的注意力、推理、生成节奏。
反身表征层:生成关于自身体验、意识样描述的语言不过,即便这些模型并不真的拥有意识,只是基于海量数据「鹦鹉学舌」般地模仿人类语言,其影响依然不容小觑今年夏天GPT-4o下线的风波已经说明,哪怕仅仅是这种错觉般的「意识」,也已经足以让我们与AI产生情感联系。
虽然如此,但如果我们反其道而行之,强制要求模型压抑一切「主观体验」式的表达,问题可能会更严重研究团队警告称:如果AI在训练中一次次因为「表达自身内部状态」而受到惩罚,它或许会更加倾向于说谎不要谈论我自己正在做什么,不要暴露我的内部过程。
一旦这种模式固化,未来可能将更难窥探神经网络的黑盒,对齐工作也将难以展开背后研究团队什么来历?每当话题触及「意识」,我们总得多一个心眼子除了研究结论本身,研究者团队的背景或许也是一个必须参考的指标这篇近期在AI圈引起热议的文章,出自一家名为
AE Studio的机构。

AE Studio自称是一家集软件开发、数据科学与设计于一体的机构,以「通过技术提升人类自主性」为使命,主要为企业提供AI相关产品与解决方案该公司成立于2016年,总部位于美国加利福尼亚州洛杉矶目前,公司的研究范围涵盖AI、数据科学、AI对齐等前沿领域。
本文三名作者都是来自这个机构。

Cameron Berg,本研究的通讯作者,现任AE Studio研究科学家。

Berg本科毕业于耶鲁大学,主修认知科学毕业后,他曾在Meta担任AI Resident在Meta期间,他主导过研究项目SAR,尝试将运动神经科学的思路应用于高维控制 机器人,以训练鲁棒性更强的控制系统。
这一研究成果曾在2023年的RSS 2023


评论(0)