本文 AI 含量 60%
最近看到一条推文,大意是:我以为我在教 Agent 怎么工作,三周后回头一看,被改变最大的那个人是我自己。
这句话击中了我。过去几个月,我一直在配置自己的 AI Agent,经历了完全一样的事。
最开始我是在 Claude Code 里试图搭自己的工作流,但搭着搭着,随着 Openclaw 的出现,我第一次看到了拥有一个 24 小时在线的个人助手的可能。Openclaw不是开箱即用的产品(虽然它看起来是) 。 你得告诉它你是谁、你怎么工作、你希望它怎么跟你互动。听起来像是在「配置软件」,但做着做着我发现,这件事的本质根本不是在配软件,而是在配置自己。
你以为在配 AI,其实在做自我审计
举几个例子。
配置的第一步,是写 SOUL.md —— 定义你希望这个 Agent 用什么语气跟你说话、什么时候该主动、什么时候该闭嘴。
问题看起来简单,真写起来才发现:我从来没认真想过自己到底喜欢什么样的沟通方式。大部分人对 AI 和自己的沟通方式的最典型想象可能还是豆包(所以说字节对产品的 sense 是真的强,虽然不一定每个人都喜欢豆包的沟通方式,但至少不会讨厌),而对我而言,在和 agent 一直对话的过程中,我才了解了自己不喜欢 AI 太热情,但也不想要冷冰冰的工具感;希望它偶尔能挑战我的想法,但别变成杠精。所以最后我在文档里写下的是「克制的副官,偶尔忍不住翻个白眼」。
写完愣了一下 —— 这不就是我对「理想协作关系」的定义吗?这个东西一直在我脑子里,模模糊糊的,但从来没变成过文字。配 Agent 逼我把它写了出来。
第二个例子是设计 Heartbeat系统。Agent 需要定期检查一些事情然后提醒我,但哪些事值得提醒?我得给它分优先级:P0 每次都提,P1 快到 deadline 才提,深夜 11 点之后别打扰我。
这本质上是在回答:什么对我真正重要?
说实话,在这之前,我对自己的注意力优先级没有清晰认知。什么事紧急、什么事重要、什么事可以等 —— 平时都靠直觉,从来没被迫排成一个明确的序列。但 Agent 不接受模糊。你不写清楚,它就不知道该怎么做。
第三个例子更有意思。我给 Agent 设计了一个「主动找我聊」的机制 —— 它会根据我最近关注的话题,偶尔抛一个值得跟进的问题过来。但我得给它画线:每天最多两次,同一话题三天内不重复,晚上 11 点后别推,没有真正有价值的内容就别凑数。
设计这套规则时我意识到,我其实在定义一个非常私人的东西:「主动」和「烦人」的边界。
每个人都被手机通知轰炸过,但很少有人认真想过:我到底希望被怎样打扰?什么信息值得打断我正在做的事?这条线画在哪?之前我对这个问题的答案是模糊的。配完之后,它变成了一组明确的规则。
为什么 Agent 能照见自己
这三个场景有一个共同点:都逼我把模糊的直觉变成可执行的规则。
这件事跟写日记、做笔记有点像 —— 都是通过外化来认识自己。但 Agent 比日记狠得多。日记允许模糊,你可以写「最近状态不太好」然后翻篇。Agent 不行。你说「状态不好的时候别打扰我」,它会追问:什么叫状态不好?怎么判断?几点到几点?
福柯有个概念叫「自我技术」,说的是人会通过特定的实践来认识和改造自己 —— 写日记、冥想、忏悔,都算。配 Agent 大概是这个时代新长出来的一种:你把自己的规则教给一个外部系统,反过来看清了自己到底是怎么运转的。
不是替代,是照见
过去几年,关于 AI 最主流的叙事是「替代」—— AI 会不会取代我的工作?会不会取代人类的创造力?但我自己的经历指向一个完全不同的方向:AI 对我最大的改变,不是替代了某项能力,而是让我看见了之前没看见的东西。
麦克卢汉说媒介是人的延伸。但 Agent 不只是延伸 —— 它还是反射。你往里面投入的是自己的规则、偏好、优先级,它照出来的也是你自己。
如果越来越多人开始配置自己的 Agent,那 AI 对人的改变,可能不是大家担心的那种「取代」,而是一种意料之外的「照见」。这个角度,比「AI 会不会抢你饭碗」有意思多了。
配 Agent 的过程还在继续,镜子里的自己也在不断变化。每隔一段时间回去改改 SOUL.md、调调优先级规则,都会发现:哦,原来我又变了,或者会恍然大悟,原来我的想法并没有表面上那么简单。
也许这才是 AI 时代最值得关注的事:不是让 AI 变得更像人,而是通过 AI,让人更了解自己。