Cobb's Lab

r/programming 全面禁止 LLM 讨论,开发者社区的反 AI 浪潮来了?

Reddit 上最大的编程社区之一 r/programming(接近 600 万成员)宣布临时禁止所有 LLM 相关内容的讨论。不是限制,是全面禁止。 这不是一个小众社区的情绪化决定。r/programming 是很多开发者获取技术资讯的主要渠道之一,这个禁令折射出的是整个开发者社区对 AI 内容泛滥的疲劳和反弹。 为什么禁? 根据版主的公告,原因很直接:LLM 相关帖子的信噪比已经低...

OpenAI 融资 1220 亿美元:AI 行业的分水岭时刻

昨天,OpenAI 宣布完成最新一轮融资,总额 1220 亿美元,投后估值 8520 亿美元。 这不是一轮普通的融资。这是人类历史上规模最大的单轮科技融资,甚至超过了大多数国家的年度科技预算。 数字背后的故事 先看几个关键数据: 月收入 20 亿美元 — 2024 年底还是季度 10 亿,一年多翻了 6 倍 接近 10 亿周活用户 — ChatGPT 是有史以来最快达到这个...

Preview Image

从 300KB 到 69KB:LLM 如何解决 KV Cache 的「记忆之重」

作为 OfoxAI(ofox.ai)的工程师,我每天都在和不同模型的推理性能打交道。最近 Hacker News 上一篇关于 KV Cache 演进的文章引起了我的注意 —— 它把一个底层但至关重要的工程问题讲得足够清楚。 你的对话是有「重量」的 当你向 ChatGPT 发送一条消息时,每个 token 会生成 query、key、value 三个向量。其中 key-value 对会被缓...

OpenAI 如何监控内部 Coding Agent 的「对齐失败」

3 月 19 日,OpenAI 发布了一篇技术博客,详细描述了他们如何监控内部部署的 coding agent 的对齐问题。这不是一篇泛泛的安全宣言,而是一份带有实操细节的工程报告——他们用 GPT-5.4 Thinking 来审查其他 agent 的行为链,30 分钟内完成交互审查,而且监控系统发现的问题比员工自主上报的还要多。 这篇文章值得每一个在用或在建 AI agent 的开发者认...

Preview Image

Miasma:用「毒数据陷阱」反击 AI 爬虫的开源武器

你的网站内容正在被 AI 公司大规模抓取,用来训练下一代模型。这不是猜测——看看你的服务器日志,GPTBot、ClaudeBot、Bytespider 这些 User-Agent 大概率已经在你的访问记录里了。 面对这种「合法灰色地带」的数据掠夺,一个叫 Miasma 的 Rust 开源项目给出了一个有趣的反击思路:不是拦截爬虫,而是喂它们吃毒数据。 核心机制:无限毒饵buffet M...

Preview Image

维基百科正式封杀 AI 生成内容:人类知识的最后防线?

2026 年 3 月,英文维基百科投票通过了一项重磅政策:全面禁止使用 AI 生成或重写词条内容。仅保留两个例外——基础校对(不新增内容)和语言翻译(需人工审核)。 这不是一次普通的社区规则更新。这是全球最大的协作知识库,对 AI 时代说出的第一个正式的「不」。 为什么是现在 维基百科面临的问题很具体: 来源造假。新一代 LLM 不仅能编造内容,还能编造看起来完全合法的引用——有期刊...