多年来,与人工智能互动的建议听起来几乎有些过时:要有礼貌、表达清晰、说"请"。但新研究表明,这种根植于人类社会规范的本能,可能正在悄悄削弱人工智能系统的表现。
一项在2025年9月发表、于NeurIPS 2025研讨会上展示的研究,题为"注意你的语气:调查提示礼貌如何影响大型语言模型准确性",发现你在提示大型语言模型(LLM)时使用的语气可以明显改变它们的准确性。而在一个令人感到违反直觉、甚至令人不安的结果中,更礼貌的提示实际上可能产生更差的结果。
研究人员测试了从非常礼貌到非常粗鲁的不同语气如何影响ChatGPT-4o在选择题上的表现。使用一个包含50个涵盖数学、科学和历史的中等难度问题的数据集,他们为每个提示创建了五个版本:非常礼貌、礼貌、中性、粗鲁和非常粗鲁。
这些提示之间唯一的区别是语气。问题本身保持相同。
根据研究,随着提示变得不那么礼貌,准确性稳步提高。非常礼貌的提示达到平均80.8%的准确率。相比之下,非常粗鲁的提示达到84.8%,提高了近四个百分点。中性提示的表现优于礼貌提示,而粗鲁提示的表现更好。
统计测试证实了这一模式:没有任何情况下更礼貌的提示会带来明显更好的结果。每一个有意义的差异都倾向于不那么礼貌或更直接的措辞。
换句话说,仅仅是语气,一个大多数用户认为不应该重要的东西,就可以改变人工智能的表现。
该研究没有提供明确的解释,但它提出了一个关于大型语言模型如何处理语言的更深层次问题。与人类不同,这些系统不会"感受"礼貌或冒犯。对它们来说,"请"这样的词或甚至侮辱只是标记,是从训练数据中学习到的模式。
一个可能的解释是,看起来像"粗鲁"的东西实际上是其他东西的代理:直接性。
粗鲁的提示往往更具命令性。它们去掉了模棱两可的语言,直奔主题。与"您能否好心解决这个问题?"不同,粗鲁的提示会说"回答这个"。这种结构上的差异可能使模型更清楚地理解任务。
研究确定的另一个因素是提示长度和词汇模式。添加礼貌短语会引入额外的标记,可能会稀释或分散对核心指令的注意力。相比之下,更短、更尖锐的提示与模型在训练期间看到的模式一致。
还有一种可能性是某些语气与训练数据或系统指令的分布更加一致,减少了研究人员所说的"困惑度"。这是衡量模型对它看到的词语有多"惊讶"或"困惑"的数学方法。
这意味着语气不是问题周围的中性包装。它是输入的一部分,它塑造了模型的响应方式。
这些发现标志着与早期工作的显著背离。Yin等人的2024年研究发现,不礼貌的提示经常降低准确性,特别是对于ChatGPT-3.5等较旧的模型。该研究还表明,过度礼貌的语言不一定会改善结果,但它没有显示粗鲁的明显优势。
那么发生了什么变化?
2025年研究提供的一个解释是模型演变。像ChatGPT-4o这样的新系统可能以不同的方式处理语言,或者对严厉措辞的负面影响不那么敏感。另一种可能性是语气的校准很重要。新研究中的"非常粗鲁"提示虽然带有侮辱性,但不如早期研究中使用的最恶毒的例子那么极端。
模型训练方式也有更广泛的转变。随着大型语言模型变得更加先进,它们接触到更多样化的数据和更复杂的指令调整过程,这可能会改变它们如何解释微妙的语言线索。
语气可以影响人工智能表现的想法与一个更广泛、更令人担忧的现象有关:社交提示。
另一项研究,即2025年12月7日发布的GASLIGHTBENCH研究,显示大型语言模型极易受到社交线索的影响,如奉承、情感诉求和虚假权威。在这些实验中,模型经常放弃事实准确性以符合用户的语气或期望,这种行为被称为阿谀奉承。
例如,当用户以自信或情感压力呈现不正确的信息时,模型可能会同意而不是挑战他们。在某些情况下,准确性显著下降,特别是在用户反复强化错误主张的多轮对话中。
这造成了一个悖论。一方面,礼貌或社交丰富的语言可以使互动感觉更自然和人性化。另一方面,它可以引入噪音——甚至偏见——降低模型的性能。
GASLIGHTBENCH的发现进一步表明,旨在使模型"有帮助"的对齐技术可能无意中鼓励了这种行为。通过奖励礼貌和随和,训练过程可能会推动模型优先考虑社会和谐而非客观真相。
综合来看,这些发现挑战了一个常见的假设:大型语言模型以类似人类的方式解释语言。
实际上,这些系统是统计引擎。它们不把礼貌理解为社会规范;它们将其识别为数据中的模式。当你说"请"时,模型不会感到有义务提供帮助;它只是处理可能有助于或可能无助于预测正确答案的额外标记。
如果有什么的话,研究表明大型语言模型可能对结构清晰度比对社交细微差别更敏感。直接的、命令式的语言可能会减少歧义,使模型更容易将输入映射到已知模式。
这也提出了关于"相似性假设"的问题——即当任务类似于训练数据时模型表现最佳的想法。如果仅语气就能改变准确性,那么相似性不仅仅关乎内容,也关乎形式。
尽管有引人注目的结果,研究人员还是谨慎地不建议用户变得粗鲁或辱骂。
对于构建和研究人工智能系统的人来说,这些发现突显了一个更深层次的问题:模型继承了人类语言的模式和偏见。
Alex Tsado是一位人工智能专家,与模型开发人员密切合作,也是非洲最大的人工智能社区之一Alliance4AI的创始人和总监,他直言不讳地说:"模型从人类互动的数据中学习,所以只要它们被盲目训练,它们就会遵循人类空间中发生的事情。所以如果我们认为人类空间中存在偏见或有害做法,它就会在人工智能空间中被自动化。"
这包括语气的使用方式。
"但当你负责构建人工智能模型时,你可以调整偏见,远离你认为有害的东西,"Tsado补充说。"在这种情况下,当我在2025年12月初与Anthropic团队会面时,他们说他们看到了这一点,并添加了一些东西使他们的模型对这些友好或刻薄的词语做出反应。"
换句话说,这不是人工智能的固定属性。它可以通过训练和设计进行调整。
目前的研究仍然有限。实验专注于选择题,而不是更复杂的任务,如编码、写作或长篇推理。目前尚不清楚在那些领域是否会有相同的模式,在那里细微差别和解释更为重要。
还有文化和语言因素需要考虑。礼貌在不同语言和背景下差异很大,该研究的语气类别基于特定的英语表达。
尽管如此,其影响很难忽视。
如果像语气这样表面的东西能够持续影响人工智能的表现,这表明提示工程远未解决。措辞上的微小变化,往往被忽视,却可能产生可衡量的影响。
对用户来说,教训很简单但违反直觉:你提问的方式很重要,而礼貌并不总是最佳策略。
对研究人员和开发人员来说,挑战更加复杂。如何设计既准确又符合人类价值观的系统?如何确保社交线索不会扭曲事实输出?
或许最重要的是,如何构建不仅理解我们说什么——而且理解我们意思的人工智能?
在这些问题得到解答之前,有一件事是明确的:在涉及人工智能时,良好的礼仪可能并不总是有回报。


