文章

当 AI 让我们越来越像:LLM 正在悄悄同质化人类思维

当 AI 让我们越来越像:LLM 正在悄悄同质化人类思维

USC 的一项新研究给 AI 从业者敲了个警钟:LLM 不只是在帮我们写作,它正在悄悄重塑我们思考问题的方式 —— 而且是朝着同一个方向。

研究发现:我们正在变得越来越像

南加州大学的计算机科学家和心理学家在 3 月 11 日发表于 Trends in Cognitive Sciences 的论文中指出,当数十亿人使用同一批 AI 聊天机器人完成日益增多的任务时,人类的认知多样性正在萎缩。

LLM 同质化人类思维 研究表明,LLM 正在标准化人类的表达方式和思维模式

研究第一作者、USC Viterbi 工程学院博士生 Zhivar Sourati 说得很直接:

“当这些差异被同一批 LLM 中介后,人们独特的语言风格、视角和推理策略就会被同质化,在用户之间产生标准化的表达和思想。”

三个关键发现

1. 个体创造力 ↑,群体创造力 ↓

单个用户用 LLM 确实能产出更多更详细的想法。但当一群人都用 LLM 时,集体创造力反而不如单纯靠人脑协作。这很反直觉 —— 工具增强了个体,却削弱了群体。

2. LLM 偏好线性推理

像 Chain-of-Thought 这样的逐步推理方法被 LLM 强化后,直觉式、抽象式的推理风格正在被边缘化。但很多时候,非线性思维才是突破口。

3. 隐性的”正确答案”压力

研究指出,LLM 正在重新定义什么是”可信的表达”、什么是”正确的视角”、甚至什么是”好的推理”。即使你不直接用 LLM,当周围的人都在用某种方式表达时,你也会感受到要”对齐”的社会压力。

这对开发者意味着什么?

作为每天和不同模型打交道的人,这项研究让我思考几个问题:

模型切换的必要性。如果长期只用一个模型,你的输出风格会逐渐被这个模型”塑形”。像 OfoxAI(ofox.ai)这样的多模型聚合平台让切换成本几乎为零 —— 不是为了省钱,而是为了保持认知多样性。

保留”原生态”草稿的习惯。在让 AI 润色之前,先把自己的原始想法完整写下来。AI 可以帮你打磨表达,但不应该替代你的思考过程。

警惕”看起来对”的输出。研究指出,用户往往会接受 LLM 建议的”足够好”的选项,而不是自己创造。久而久之,主动权从用户转移到了模型。

研究者的建议

论文作者建议 AI 开发者应该有意识地在模型中引入多样性 —— 语言、视角、推理方式的多样性。而且这种多样性应该基于真实世界的人类差异,而不是随机变化。

“如果 LLM 有更多样的方式来处理想法和问题,它们将更好地支持我们社会的集体智慧和解决问题的能力。”

我的看法

这项研究的意义不在于”AI 不好”,而在于提醒我们:工具会塑造使用者

我们用的编辑器影响我们写代码的风格,我们用的笔记软件影响我们组织信息的方式,我们用的 LLM 影响我们思考问题的模式。

承认这一点,才能有意识地对抗它。


参考文献:Sourati et al., Trends in Cognitive Sciences (2026). DOI: 10.1016/j.tics.2026.01.003

本文由作者按照 CC BY 4.0 进行授权