从受益者到反哺者:我如何从 0 开始,用 AI 做出六个系统

从大别山阅读空间到 Agent 大赛前夜,我试着把多年关于学习、教育、自由、长期主义和技术的困惑,做成可以运行的东西。

一、不是因为会写代码,而是因为有一个问题放不下

4月4日之前,我并不认为自己是一个真正意义上的开发者。

我开始动手,不是因为我已经准备好了,也不是因为我突然掌握了某种完整的工程能力。更真实的情况是:我看见了一些新的信息,意识到 AI 似乎已经可以帮助普通人把想法做成项目。与此同时,我正在学习专业课,越来越强烈地感觉到,自己缺少一个真正有效的复盘工具。

这种缺失不是一个简单的“笔记软件”能解决的。

我需要的不是把资料堆进去,也不是把每次学习后的感想简单保存下来。我真正想要的是一个能帮助我重新看见自己思考过程的系统:我在哪里卡住了?我为什么会反复犯同一种错误?我今天的理解和三周前有什么差别?我是真的掌握了,还是只是短暂地记住了答案?

于是,我开始尝试 vibe coding。

现在回头看,vibe coding 只是一个入口。它真正改变我的地方,并不是让我少写了多少代码,而是让我第一次意识到:当 AI 把实现门槛降低以后,一个人最重要的能力不再只是“会不会写代码”,而是能不能把自己长期放不下的问题,定义清楚、拆解清楚、验证清楚。

我最初只是想做一个复盘工具。但这条线往下走,很快就把我带回了更早的问题:人到底是如何学习的?教育究竟应该帮助人获得什么?AI 时代,一个普通人能不能建立属于自己的成长系统?

二、从大别山开始:努力、教育和迟来的闭环

如果把时间再往前推,4月4日其实不是起点。

更早的起点,可能是我十一二岁在大别山阅读空间参加活动的时候。那时的我还不能用今天这些词去描述自己的感受,但我已经隐约意识到,学习不只是成绩,教育也不只是灌输。

我曾经写过一个问题:努力了就一定会有收获吗?

这个问题到今天我也不敢给出一个绝对答案。现实世界里,努力和结果之间从来不是线性的。家庭、资源、地域、教育机会、信息差,这些东西真实存在。很多孩子不是不努力,而是从一开始就站在更窄的路口。很多时候,努力并不会立刻换来一个漂亮的结果。

但我也越来越相信另一件事:努力不一定会即时收获,但它可能会在某个未来,以另一种形式回来。

大别山阅读空间对我来说,就是这样一颗种子。

小时候,我在那里做过风筝,做过飞碟实验,参加过冬令营、夏令营、戏剧营、英语营。后来,我又以志愿者和营长的身份回到那里,开始设计课程,组织活动,和孩子们一起学习、讨论、做项目。

当我第一次真正独立设计课程时,很快发现书面计划和实际执行之间差了太多东西。你以为孩子们会按照你的设计进入状态,但现实会不断给你反馈:有些活动太理想化,有些表达不够清楚,有些孩子并不会因为你准备充分就立刻被点燃。

那段经历让我很早就知道,系统不是写在纸上的流程。真正的系统,一定是在执行、反馈、失败、调整里长出来的。

后来有一个画面一直留在我心里:我小时候在阅读空间做过飞碟电路实验,多年后,我又带着新的孩子做同样的实验。当飞碟在他们手中蓄力、腾飞的时候,我突然感受到某种闭环。原来很多年前别人种在我心里的东西,真的可以通过我,传给下一批孩子。

这大概就是我理解的“从受益者到反哺者”。

我后来做 AI 学习系统,并不是因为 AI 很酷,而是因为我一直想知道:一个人怎样才能真正学会学习?一个普通人能不能被更好地看见、鼓励、复盘、引导?那些曾经因为资源差距而缺失的东西,能不能被新的工具部分弥合?

三、胡适故里:我开始寻找标准路径之外的答案

还有一次经历,对我影响很深。

那段时间,我长时间承载机械式的学习内容,明显感觉到脑力过载、心力不足。我开始反复问自己:三年后的自己该何去何从?是随波逐流,走向那些看起来更稳定、更标准的路径,还是去寻找一个真正属于自己的方向?

这种迷茫并不是某一天突然出现的。它更像是长期积累之后的一次集中爆发。

我开始有意识地寻找一些能够帮助我思考的东西。偶然间,我读到胡适写给青年、写给大学生的一些文字。他并没有用一种居高临下的方式告诉年轻人应该选择哪条路,而是不断提醒我们:要多研究些问题,少谈些主义;要大胆假设,小心求证;要在兴趣中寻找自己的方向,也要有责任心地思考。

这对当时的我很重要。

因为我慢慢发现,胡适年轻时也并不是一开始就清楚自己要做什么。他也经历过寻找、转向、困惑和选择。真正让我受到触动的,不是他后来成为了多么重要的人,而是他在不确定中仍然保留了对问题的敏感、对自由的追求和对求证的耐心。

于是,我读了更多和他有关的书,也开始想:如果一个人真的不知道自己要去哪里,也许不应该急着把自己交给某条标准路径,而应该先问问自己,到底想研究什么问题,想解决什么问题。

后来刚好有一个契机,我要为七月的皖南人文游学做准备。于是我决定趁着假期去一次绩溪,去胡适故里看一看。

我记得那一路,坐了很久的公交,从绩溪北到上庄,沿着常溪河慢慢走。村里有红灯笼,上面写着那些我已经在书里读过、后来又反复回到我脑子里的话:“多研究些问题,少谈些主义”“大胆的假设,小心的求证”。

当这些句子从书页走到真实的村路、青石板和红灯笼上时,它们对我来说不再只是名言,而像是一种可以亲身靠近的方法论。

那时的我还没有做 AI 系统,但现在回头看,这几句话几乎预言了我后来对 AI 的要求。

我不想要一个只会顺着我说话的 AI。也不想要一个看似无所不知、实际上不断制造幻觉的 AI。我想要的是一个能陪我研究问题、提出假设、小心求证、保留证据的系统。

好的 AI 不应该替人做选择,而应该帮助人更有责任心地形成判断。

这也是我后来越来越警惕“答案崇拜”的原因。无论是传统教育里的标准答案,还是 AI 生成的一段漂亮回答,如果它不能帮助人更清楚地理解问题,不能帮助人形成自己的判断,那么它只是另一种更高级的灌输。

四、阅读、人文和技术:那些点开始连接起来

我一直很喜欢乔布斯。

不是因为某种简单的成功学叙事,而是因为他不断强调的两个东西:Think Different,以及 connecting the dots。

这两个词在很长一段时间里,对我来说都只是模糊的精神吸引。直到 AI 真的开始进入我的生活,我才突然感觉到,过去很多看似分散的东西开始连接起来。

大一大二两年,我读了上百本书。它们横跨科技、艺术、人文、哲学。

我读这些书,并不是为了积累某种可以立刻变现的知识,也不是为了让自己显得更博学。更真实地说,我是在用阅读回答一些很古老的问题:我是谁?我从哪里来?我要到哪里去?这个世界是怎样运转的?人在社会、历史、技术和命运面前,究竟还有多少主动性?

这些问题听起来很大,但它们其实和一个年轻人的日常迷茫有关。

当你不知道自己要做什么的时候,你会本能地向外寻找参照。你会看历史中的人如何选择,看思想家如何面对困境,看企业家如何理解产品和组织,看科学家如何靠近真理,看艺术家如何表达自我。

很多阅读在当时看起来并没有立刻产生现实收益。有些书只是让我多了一种看问题的角度,有些书只是让我在某个晚上对人、社会、教育、技术产生一点新的理解。

但这些阅读慢慢构成了我的思考底座。

它让我不满足于只把 AI 看成一种效率工具。它也让我天然反感那些只追求炫技、只追求更快生成、只追求表面自动化的产品逻辑。

不过,现在回头看,那时的我也有一个很明显的问题:我阅读了很多,思考了很多,但行动力并不够。

很多想法只是停留在笔记里,停留在和自己的对话里,停留在“我好像想明白了一些事”的瞬间。阅读让我更了解自己,也让我更理解世界的一些运行规律,但它还没有真正变成改变现实的力量。

我当时还没有看见自己的力量。

直到 AI 出现,我才第一次具体地感觉到,那些过去散落在阅读、笔记、游学、教育实践里的东西,似乎可以被重新组织起来,变成可以运行的系统。

我越来越想站在技术与人文的交汇路口。

技术当然重要。没有工程能力,想法就很难落地。但如果没有人文底色,技术很容易变成另一种冷冰冰的控制系统。它可能更高效,但不一定更理解人。它可能更强大,但不一定更有责任感。

AI 让我第一次具体地感觉到,普通人也拥有了一点 change the world 的力量。

这种力量不是宏大的口号,而是非常具体的小事:帮助一个学生更好复盘,帮助一个人保留自己的思考,帮助一个系统暴露被忽视的错误,帮助人在满是噪音的时代保留一点独特而清醒的判断。

我开始相信,解决小问题并不小。

一个好的复盘工具,也许能让一个学生少一点自我怀疑。一个好的学习导师,也许能在教育资源不均衡的地方提供一点补偿。一个好的审计系统,也许能让一个庞大平台里长期没人处理的小错误被重新看见。一个好的记忆系统,也许能让一个人的思想不再被一次次聊天窗口吞掉。

这些都是小问题。
但人的改变,往往就是从这些小问题开始的。

五、为什么我要做 Socrates Focus

我对填鸭式教育的不适很早就存在。

初高中时,我非常抗拒一种机械式的知识灌输。尤其让我困惑的是,有些教学并不真的关心学生是否理解,只关心学生是否能在考试里给出对应答案。

高中时,我曾经花大量时间琢磨导数大题,写了几十道,但能真正掌握的题目很有限。现在回头看,原因并不只是我不够努力,而是整个学习链条里缺少几个关键环节:清晰的思路拆解、通用性的解题方法、有效的复盘和针对性训练。

如果没有这些,一个学生很容易把暂时的卡住误解成自己的愚蠢。

我也曾经怀疑过所谓“天赋论”。为什么有的人看起来很轻松就能考第一?为什么自己一段时间能冲上去,后来又会掉下来?后来我才慢慢意识到,所谓天赋背后往往藏着大量看不见的训练、环境、资源和反馈。

到了大学,我对学习的失望以另一种方式出现。某次学习微积分时,我问了老师一个问题,对方以一种很厌倦的语气说:考试不考,不用学。

那一刻,我对大学课堂的滤镜碎掉了。

我是一个需要知道“为什么”的人。如果没有真实场景和真实问题,只是把知识灌输给我,我的效率会非常低。但如果我对一个问题有兴趣,有动力,即使是一个零知识的新领域,我也愿意从头学起,并且把它构建出来。

所以我最初想做的 Socrates Focus,不是一个更会给答案的 AI,而是一个能帮助人学会学习的系统。

“苏格拉底”这个名字对我来说很重要。它意味着这个系统不应该急着给出答案,而应该不断追问:你真正的问题是什么?你的证据是什么?你的推理哪里断了?你是不是把记住答案误以为理解了问题?

我希望它能做几件事:帮助人提出问题,帮助人复盘思路,帮助人建立自己的知识库,帮助人看见自己的思考习惯,也帮助那些有求知欲但缺少好老师、好反馈、好资源的人,获得一个更接近个人导师的东西。

这不是一个简单的效率工具。它更像是我对自己学习经历的一次回应。

六、Vibe coding 只是引子,真正重要的是问题定义

当我真正开始 vibe coding,我很快发现,它没有想象中那么浪漫。

AI 确实降低了实现门槛。过去一个普通人想做一个系统,要先跨过编程语言、框架、部署、调试等一整套门槛。现在,你可以用自然语言和 AI 协作,让一个想法更快长出原型。

但这并不意味着事情变简单了。

AI 可以帮你写代码,但不能替你定义问题。它可以给你方案,但不能替你判断哪个方案值得做。它可以生成页面,但不能替你决定什么叫好。它可以在你描述模糊的时候给出一个看似完整的结果,但那个结果往往会偏离你真正想要的东西。

我开始明白,vibe coding 最重要的部分不是 vibe,而是把混乱的直觉翻译成清楚的问题。

你必须学会描述需求,拆解模块,判断输出,发现偏差,继续修正。你也必须接受第一版东西通常很粗糙,甚至很丑、很乱、很不稳定。真正的构建不是一次生成,而是一次次把错误变成反馈。

这和我过去做夏令营其实很像。

计划永远只是第一版。真正的系统,是在现实中被不断修正出来的。

七、六个项目:同一个问题的六次展开

从 4月4日到5月8日,我表面上做了六个项目。但如果只把它们看成项目清单,就会错过真正重要的东西。

它们其实是同一个底层问题的六次展开:AI 时代,一个人如何保存自己的思考,组织自己的行动,验证自己的结果,并在失败之后继续迭代?

Socrates Focus 是第一个方向。它想回答的问题是:AI 如何帮助人深度思考,而不是直接喂答案?我不希望它成为一个替人思考的机器,而希望它更像一个苏格拉底式的提问者。它应该逼你澄清概念,追问证据,看见推理中的断裂。

雅思助手 更具体。它把 AI 放进一个真实学习场景里:阅读复盘、写作反馈、OCR 材料处理、复盘卡片沉淀。它让我意识到,AI 产品如果不能进入真实任务,就很容易停留在漂亮概念里。学习工具必须面对重复训练、反馈质量和长期坚持这些朴素问题。

Reading Reflection OS 则回应了我长期以来对阅读的理解。阅读不是读完就结束。真正有价值的是读完之后留下了什么:问题、联想、反思、概念、行动。这个系统想解决的是,阅读后的想法如何不流失,而是沉淀成长期知识。

ShadowBuyer / Booking Audit 是最让我崩溃,也最让我有成就感的项目。

在审计公开展示数据和平台信息的过程中,我反复失败了一百多次。抓取失败、结构变化、数据噪声、证据链不完整,这些问题不断把我从宏大的想象里打回地面。真实世界不会因为你有 AI 就变得温顺。

但也正是这个项目,让我第一次真正感觉到 AI 不只是帮我整理想法。它可以进入现实世界,拿到有效数据,帮助我观察平台展示背后的异常、流程问题和管理迟钝。哪怕是一些看似简单的信息标注错误,在反馈后也未必会被及时修正。越是大的系统,越可能在细节里暴露出管理和反馈机制的问题。

这个项目让我意识到,AI 可以成为一种审计工具。但前提是,它必须有证据边界,必须保留截图、manifest、哈希、样本和统计复核。否则它就只是在制造结论,而不是建立可信判断。

Solo AI Company OS 则来自另一个问题:一个人如何管理多个 AI 员工、长期项目和工作记忆?当项目越来越多,我发现单次对话完全不够用。你需要 worklog,需要 handoff,需要 CEO decision,需要 dashboard,需要一个能让不同 AI 继续接上上下文的操作系统。

SACP / AgentOps Doctor 是更进一步的问题:Agent 做完任务以后,如何证明自己真的做完了?AI 很容易说“完成了”,但完成声明本身并不等于完成。它需要证据,需要责任归属,需要人工决策边界,也需要一种工作回执协议。

这六个项目看似分散,其实都在围绕同一个方向生长:从学习,到思考,到审计,到协作,到证明。

我开始不再把 AI 看成一个回答问题的工具,而是把它看成一个可以被组织、被约束、被审计、被训练的系统。

八、芒格式的反问:AI 系统最薄弱的地方在哪里

我很喜欢查理·芒格。

芒格对我的影响,不只是“多元思维模型”这个词本身,而是他那种不断反过来想问题的方式:如果想成功,先避免愚蠢;如果想把事情做对,先找到最容易出错的地方;如果发现自己错了,就尽快改。

段永平也给了我很深的影响。他反复强调做正确的事情,强调本分,强调发现错误就及时改。长期主义不是拖延,也不是空喊愿景,而是在短期诱惑面前守住边界,在发现错误时承认错误,在事情还没有立刻开花结果时,仍然坚持正确方向。

这些思想后来都进入了我的产品设计。

一开始,我和 AI 的对话常常会非常长。几十轮之后,我发现了几个危险问题:上下文漂移,幻觉率升高,AI 会忘记最初聊天的目的,也会遗漏中间已经确认过的重要细节。

它看起来一直在回答,但系统本身并不知道自己什么时候偏离了轨道。

这件事让我非常警惕。

因为如果 AI 只是偶尔答错,那还可以靠人工纠正。但如果一个 Agent 系统在长期任务中不断偏移,却没有自我校验、没有证据记录、没有边界声明、没有可复查的工作回执,那么它越强大,风险反而越大。

于是我开始反过来问:现在 Agent 系统最薄弱的地方到底在哪里?

我的答案是:缺少可审计性。

一个 Agent 不应该只给出“我完成了”的结论。它应该留下过程、证据、边界、责任归属和可复查的工作回执。它应该能说明自己做了什么,没有做什么,哪些地方需要人来决策,哪些结论有证据,哪些只是推测。

这就是我后来设计 SACP / AgentOps Doctor 的真正原因。

它不是为了再做一个漂亮项目,而是为了回答一个更底层的问题:AI 时代,如果我们越来越依赖 Agent 去执行任务,那么我们如何信任它?如何纠错它?如何让它在复杂任务里不悄悄漂移?

芒格教会我的,是避免愚蠢。
段永平教会我的,是做正确的事并及时纠错。
而我在 AI 系统里看到的最大愚蠢,就是没有证据、没有边界、没有回执,却假装一切已经完成。

九、从会用 AI 到设计 AI 系统

这个过程中,我也开始形成一些更清晰的技术判断。

第一,是关于人格和问题的判断。

我曾经被一段关于乔布斯评价优秀人才的材料打动。它讲的是,真正优秀的人会平等对待每一个提问者。无论对方是谁,他们都会认真回答问题,眼神中的专注和真诚是一样的。

这给了我一个很重要的产品直觉:一个好的 AI 导师,不应该因为问题简单就敷衍,也不应该因为用户暂时理解不了就居高临下。它应该认真对待每一次提问。因为很多时候,真正重要的不是问题本身有多高级,而是这个问题背后的人正在努力穿过某个认知障碍。

第二,是关于底层理解的判断。

Karpathy 对我的影响,不只是“AI 很酷”。更重要的是他那种从零构建的工程审美。micrograd、nanoGPT、llm.c 这些东西都在表达一种态度:真正的理解不是调用一个黑箱,而是知道数据、梯度、内存和计算到底怎么流动。

这也影响了我对专业课学习的看法。我不再只把它看成考试内容,而开始把它看成理解 AI 系统的底层阶梯。操作系统、计算机网络、组成原理、数据结构,这些并不是和 AI 无关的旧知识。相反,它们决定了一个人能否真正理解模型、推理、部署、成本和性能之间的关系。

第三,是关于记忆的判断。

我一度对 notebook 类产品抱有很高期待。它们能存很多内容,能收集信息,能在对话时扫描材料。但实测之后,我发现只要对话足够长,系统就会卡住。把所有东西都塞进上下文,并不是长期记忆。

于是我开始想:思想库能不能像 Git 一样?

每一次深刻的自我剖析,都是一次 commit。今天的我和三周前的我之间,应该可以看到 diff。为什么一定要保留原文本?因为只有原文本才能进行细腻对比。摘要很有用,但摘要也会损失纹理。

这让我逐渐意识到,AI 时代真正稀缺的不是一次回答,而是一个人长期思想变化的版本管理。

第四,是关于工程纪律的判断。

多 Agent 协作听起来很迷人。一个路由,三个辩论,一个总结,外加审查官、私有记忆、GraphRAG、MCP、知识图谱、情绪上下文。所有这些概念都很吸引人。

但真正开始做以后,我很快遇到另一个现实问题:成本。

如果每次调用都让多个高价模型反复辩论,上下文又不裁剪,API 账单会迅速失控。这时我才真正意识到,AI 软件工程不是只设计宏大架构,还要做 mock testing、模型分层、上下文裁剪、轮数限制和成本控制。

从那时起,我不再只关心 AI 能不能回答,而开始关心它能不能记住、能不能协作、能不能证明、能不能以可承受的成本运行。

十、5月8日:我对 AI 时代的阶段性判断

到5月8日,我对 AI 时代有了一些阶段性的判断。

第一,未来真正有价值的,不会只是泛泛聊天机器人,而是足够垂直、有完整任务执行能力的 Agent。

一个真正有用的 Agent,应该能在具体领域里稳定完成完整任务。比如从一个城市出发参加黑客松,它不仅要知道路线,还要能对接活动信息、安排酒店、规划交通、考虑饮食、识别风险、准备替代方案,并且能动态执行。

这件事现在还没完全成熟,但方向很清楚。

第二,长期反复调用无状态大模型,是一种高成本浪费。

大厂不会为了一个人或一小群人定制模型。未来一定会出现更多轻量化、参数更小、可调整、特定领域性能强、可本地部署的模型。每个人、每个团队、每个组织,都可能需要自己的模型、自己的数据、自己的记忆和自己的推理工作流。

第三,人不会因为 AI 变得不重要,反而更重要。

因为 AI 的底层仍然是不确定的黑箱,是基于概率的词元预测。它很强,但它并不天然拥有人的目的、责任、经验和价值判断。

对人来说,最重要的能力仍然是三件事:定义问题,拆解问题,解决问题。

AI 可以帮助我们更快地处理信息,可以帮我们生成方案,可以帮我们执行重复任务。但问题是否值得解决,边界在哪里,证据是否充分,结果是否可信,这些仍然需要人来判断。

所以我越来越觉得,AI 时代真正值得训练的,不只是模型,还有人的问题能力。

十一、5月10日前夜:一次外部检验

5月6日,我了解到一个 Agent 相关的线下活动。5月8日,我参加了全球能力测评,跑到了 93 分。

这个分数对我来说不是终点,更像是一种确认。

它让我感觉,过去一个多月那些看似混乱的尝试,可能真的把我推向了一条正确的路。我并不是已经完成了什么,而是似乎终于走到了一条值得继续走下去的路上。

5月10日,我准备去线下参赛。到现在,我还没有完全想好要拿哪个项目或 skill 去参加。

但这本身也符合我过去一个多月的状态:不是先拥有完整答案,再开始行动;而是在行动中不断逼近问题。

如果说过去 35 天是我在自己的房间里训练系统,那么 5月10日更像是第一次把这些系统带到外部世界。它会检验我的想法,也会检验我对 Agent、学习、记忆、证据和协作的理解,究竟能不能在真实场景里站住。

十二、从受益者到反哺者

从大别山阅读空间,到胡适故里;从专业课复盘,到六个 AI 系统;从一个受益者,到尝试反哺他人、也反哺自己的构建者。

这条线并不是一开始就清楚的。

我只是一路带着一些问题往前走:努力有没有意义?教育能不能更公平?人能不能学会学习?机械路径之外有没有自己的方向?AI 能不能帮助人更好地思考,而不是替人思考?一个普通人能不能借助 AI,把长期困扰自己的问题做成系统?

现在我越来越觉得,AI 时代真正重要的,不只是模型越来越强,而是人能否在模型越来越强的时候,仍然保留自己的判断、责任、长期记忆和独特思考。

技术应该帮助人变得更完整,而不是更依赖。

从 4月4日到5月8日,我表面上做了六个项目。
但真正发生的事情,是我把过去多年关于教育、学习、自由、责任、长期主义和技术的困惑,第一次做成了可以运行的东西。

它们还很粗糙,也远远谈不上成熟。
但它们让我确认了一件事:AI 时代真正值得做的,不只是训练模型,也不是让人更快得到答案。

更重要的是,帮助一个人保存自己的思考,理解自己的失败,定义自己的问题,修正自己的错误,并在一次次行动中获得继续生长的能力。

这也许就是我从受益者走向反哺者的方式。
以前别人为我点过灯。
现在,我试着用 AI、代码和系统,把这盏灯继续往前递。

返回思考列表