很多人在此期间那它和 Manus 试图进行对比,一个忠于本地,而另一个试图做一个什么都能帮你做的云端助理。这两者之间的对比有多少原因是来自于想看小扎又当了一次冤大头的笑话暂且不提, 似乎有个 local vs remote 的对比隐隐显现出来。Local 派讲隐私和数据主权,remote 派讲开箱即用和优雅设计。听起来像极了当年 Notion vs Obsidian 的讨论。
目前最接近「退出机制」的东西,大概是 robots.txt。它是一个写在网站根目录下的文本文件,告诉搜索引擎和爬虫「这些页面不要抓取」。但 robots.txt 有两个根本性的问题。第一,它是自愿遵守的君子协定,没有法律约束力,也没有技术强制力。一个爬虫完全可以无视它,而你毫无办法。第二,也是更关键的,它是平台的工具,不是用户的工具。我作为一个在微博上发帖的人、一个在即刻上写想法的人、一个在 X 上发推文的人,没有任何机制让我声明「这条内容不授权 AI 处理」。我能控制的只有「发不发」,发了之后它被谁读取、被怎么处理,完全不在我的掌控范围内。
平台层面的 opt-out 机制也好不到哪去。LinkedIn 默认把用户数据纳入 AI 训练,等用户发现的时候历史数据已经不可撤回了。Meta 在 Instagram 上部署的 AI Bot 甚至不能被屏蔽 —— 你没有选择「不跟 AI 互动」的权利。几乎所有场景都遵循同一个逻辑:用户被默认纳入 AI 系统,退出极难或根本不可能。
而且你会发现,目前全世界所有关于 AI 内容的治理框架 —— 不管是欧盟的 EU AI Act 还是各国的标注要求 —— 逻辑都是「告诉你这是 AI 生成的」,也就是所谓的 透明范式。但这个方向从一开始就搞反了,或者说,他们对于模型输入端的训练集,以及日常消费的内容的限制形同虚设。真正的问题不是「这段内容是不是 AI 写的」,而是 「AI 有没有权利读取和处理我写的内容」。透明范式关心的是输出端 —— AI 产出了什么;但被系统性忽视的是输入端 —— AI 吃进去了什么。
在这种背景下,一些创作者选择了更激进的路线。Nightshade 和 Glaze 这两个工具大概是目前最出名的数据投毒实践,艺术家在自己的作品中嵌入人眼不可见但会干扰 AI 训练的对抗性噪声。如果 AI 用了这些「有毒」的图片来训练,生成的结果就会出错。
这可以说是个人层面的否决权工具。它确实有效,至少在一定程度上是有效的。但问题在于,它本质上是一种 孤注一掷的防御。每个艺术家都要单独给自己的作品「下毒」,没有规模化的可能,也没有制度化的保障。与核武器的「确保相互摧毁」不同,这种摧毁是 单向的 —— 个人用户和市值千亿的 AI 公司之间的权力不对称是压倒性的。当你无法确保对方能按照承诺行事时,人们只能在黑暗森林中各自按下发射键,形成一种螺旋上升的对抗姿态。
问题看起来简单,真写起来才发现:我从来没认真想过自己到底喜欢什么样的沟通方式。大部分人对 AI 和自己的沟通方式的最典型想象可能还是豆包(所以说字节对产品的 sense 是真的强,虽然不一定每个人都喜欢豆包的沟通方式,但至少不会讨厌),而对我而言,在和 agent 一直对话的过程中,我才了解了自己不喜欢 AI 太热情,但也不想要冷冰冰的工具感;希望它偶尔能挑战我的想法,但别变成杠精。所以最后我在文档里写下的是「克制的副官,偶尔忍不住翻个白眼」。