终章

终章

距离上一篇文章,已经过去将近一年了。

不是没有遇到问题,也不是没有解决问题,而是解决问题这件事,已经不再需要记录下来分享给别人了。

最后一篇文章停在 2025 年 4 月 22 日。那之后发生了什么?还是在写代码,还是在排查 bug,还是在部署服务,还是在处理各种奇怪的报错。生活没有停止,只是博客停了。

知识贬值了

做技术这行十几年,博客一直是一种习惯。遇到一个坑,爬出来,写一篇,留给自己备查,顺便对搜索到这里的人有点用。这是那个时代技术人的默契——你帮我,我帮你,大家都靠搜索引擎活着。

那个模式走了很久,直到 AI 出现。

刚开始用的时候还没意识到有什么变化,只是感觉查资料快了一些。后来慢慢发现,很多问题压根不需要去搜了,把报错信息粘贴过去,分析出来的原因比自己猜的准,给出的方向比搜索结果更直接。

不是说 AI 永远对,而是说它的命中率高到让你不再需要反复试错。

以前排查一个问题的路径是:遇到报错 → 猜可能是什么原因 → 搜索关键词 → 翻几篇文章 → 对比自己的情况 → 再试 → 再报错 → 再搜。这条链路短则半小时,长则一天。现在是:把完整的错误信息和上下文丢给 AI,它根据你的具体情况给出分析,通常第一轮就能命中。

这就是本质的不同。过去的技术文章,包括我写的那些,本质上是在做「经验的预存」——我遇到了,记下来,等你也遇到时搜到它。AI 不需要这种预存,它直接针对你的问题分析你的场景,灵活程度不在一个量级上。

知识的价值没有消失,但知识的稀缺性消失了。

这个博客原本是干什么用的

翻回去看,这几年写的东西大多数是工具性的:Redis 持久化怎么配,Nginx 报 499 是什么原因,Docker 镜像怎么导出,Go 的代理环境变量怎么设置。

都是真实遇到过的问题。写的时候是认真的,但本质上是「填坑记录」。

这类内容有个特点:它的价值依赖于稀缺性。当大多数人遇到同样的问题、找不到清晰答案时,一篇写得明白的文章就有价值。但当 AI 可以对任何报错给出清晰的分析和方案时,填坑记录这种形式的价值就接近于零了。

不是我的记录没价值,是这种形式的记录整体上变得多余了。

十几年这件事

做了十几年技术,说不上什么深刻的感悟,只是有一个观察:这行业里真正有价值的东西,从来都不是「会用什么工具」,而是「理解问题本身」。

工具一直在变。语言换过,框架换过,部署方式换过,现在连写代码、查资料这件事本身都在变。不变的是:你能不能把一个模糊的问题描述清楚,你能不能判断一个方案是否合理,你能不能在信息不完整的时候做出相对正确的决策。

AI 替代的是执行层,替代不了判断层。

但判断层需要的东西,不是靠写博客积累的,是靠真实的项目、真实的失败、真实的取舍积累的。这部分没有捷径,AI 也帮不上太多忙。

所以如果说这个时代的变化对技术人意味着什么,我的理解是:执行成本大幅下降,判断能力的稀缺性反而上升了。以前你花 70% 的时间在查资料和写代码上,30% 在想清楚要做什么。以后可能倒过来。

不更新了

说回博客本身。

继续更新的理由不太充分了。写工具性的内容,AI 比我快,比我全,比我针对性强。写思考性的内容,我不确定自己有足够稳定的输出频率,也不想为了更新而更新。

更重要的是,我现在解决问题的方式变了。不再是「遇到问题 → 解决 → 记录」,而是「遇到问题 → 和 AI 一起分析 → 解决」。这个过程是对话式的,不是文章式的,记录下来也失去了原本的意义。

就在今天,服务器宕机了,SSH 连不上,网站 504。排查下来是 uWSGI 没有配置 max-requests,Python worker 内存一个月涨满了,加上爬虫在高频抓取,内存耗尽触发 OOM,云盘 IOPS 被打满,整条链路崩掉。问题找到了,配置改了,封了爬虫,加了 Swap,加了限速,一个小时之内全部处理完。

这个过程里,AI 分析了日志,识别了爬虫行为,定位了配置缺陷,给出了修复方案。比我一个人盯着日志猜快得多,也准得多。

以前这种排查经历,我会整理成一篇文章写下来。现在觉得没必要了,因为下次你遇到类似的问题,直接问 AI 比来看我这篇文章更有效率。

告别

这篇文章写完之后,这个博客大概率不会再更新了。

不是失落,也不是什么壮志未酬的感慨。只是一个阶段结束了,另一个阶段还没想清楚形态,就先停在这里。

那些年写下来的东西还在,作为一个时代的记录也好,作为某个深夜搜索到这里的人的参考也好,留着就行。

感谢曾经来过这里的人。

相关推荐

评论