Atlassian 默认开启 AI 训练数据采集:30 万客户的数据,你 Opt-out 了吗?
作为 OfoxAI(ofox.ai)的开发者,我每天都在和各种 AI 产品打交道。但今天看到 Atlassian 的这波操作,还是觉得有必要聊聊 — 因为这事关每一个用 Jira 和 Confluence 的开发团队。
发生了什么
Atlassian 宣布从 2026 年 8 月 17 日起,将默认采集旗下 30 万客户的数据用于 AI 模型训练。采集范围包括两类:
元数据(Metadata): Confluence 页面的可读性评分、内容复杂度、语义相似度分数,Jira 的故事点、Sprint 截止日期、SLA 等。
应用内数据(In-app Data): Confluence 页面标题和正文、Jira 工单的标题/描述/评论、自定义 emoji 名称、自定义工作流名称等。
关键在于分级策略:
- Free / Standard 用户:元数据采集强制开启,无法关闭;应用内数据默认开启,可以 opt-out
- Premium 用户:应用内数据默认关闭,可以 opt-in
- Enterprise 用户:全部默认关闭
- 政府云 / HIPAA / 金融客户:完全豁免
翻译成人话:付费越少,隐私越少。
为什么这事值得关注
这不是 Atlassian 一家的问题,而是整个 SaaS 行业正在发生的范式转移。
第一,”默认开启”是精心设计的。 产品经理都知道,默认选项决定了 90% 以上用户的行为。把数据采集设为默认开启,再给你一个 opt-out 按钮 — 这不是给你选择权,这是在赌你不会去点那个按钮。
第二,元数据并不”无害”。 Atlassian 说元数据经过”去标识化和聚合处理”,但语义相似度分数、内容复杂度评分这些东西,本质上是你团队工作模式的数字指纹。两个 Confluence 页面有多相似?你的 Sprint 周期是多长?你的 SLA 响应时间是什么水平?这些信息拼在一起,足以勾勒出一个团队的运作画像。
第三,七年保留期。 采集的数据保留长达七年。七年前你可能还在用完全不同的技术栈,但你当时的工作数据还在 Atlassian 的训练集里。
开发者该怎么做
如果你的团队在用 Atlassian 产品,现在就该行动:
- 检查你的订阅等级。 Free 和 Standard 用户是重灾区。如果你的团队处理敏感数据,认真考虑升级到 Premium 或 Enterprise
- 立即 opt-out 应用内数据采集。 在 Atlassian 管理后台的安全策略中关闭 data contribution。8 月 17 日之前还有时间
- 审计你的 Confluence 和 Jira 内容。 有没有不该出现在训练数据里的东西?客户信息、内部架构文档、安全配置?
- 考虑替代方案。 如果数据主权是硬性要求,自托管的 Linear、Plane 或者回归 GitHub Issues 都是选项
更大的图景
Atlassian 不是第一个这么做的,也不会是最后一个。当 AI 成为 SaaS 产品的核心竞争力,用户数据就成了最有价值的燃料。
这里有一个结构性矛盾:SaaS 的商业模式建立在”你把数据放在我这里,我保证安全”的信任之上。但 AI 训练需要大量数据,而你的数据恰好就在那里。当增长压力遇上 AI 军备竞赛,信任往往是第一个被牺牲的。
作为开发者,我们需要建立一个新的心智模型:你放在任何 SaaS 平台上的数据,默认假设会被用于 AI 训练。 不是因为悲观,而是因为激励结构决定了这是必然趋势。
在这个背景下,选择 AI 工具时,透明度和用户控制权变得格外重要。比如在模型选择上,与其被单一平台锁定,不如用 ofox.ai 这样的聚合平台保持灵活性 — 至少你的 prompt 和对话数据不会被拿去训练别人的模型。
数据是新石油。但石油不会自己跑到别人的炼油厂里去 — 除非你签了那份默认勾选的用户协议。
