本文来自微信公众号: 不懂经 ,作者:不懂经也叔的 Rust,原文标题:《AI 时代的张文宏悖论:为什么越用 AI,越觉得自己不值钱了?》,题图来自:视觉中国前几天,刷到一条短视频,是国家传染病医学中心主任张文宏,1月 10 日在香港高山论坛上的一段讲话,他明确表示:“我拒绝把 AI 引入医院病历系统。”因为,未经系统本文来自微信公众号: 不懂经 ,作者:不懂经也叔的 Rust,原文标题:《AI 时代的张文宏悖论:为什么越用 AI,越觉得自己不值钱了?》,题图来自:视觉中国前几天,刷到一条短视频,是国家传染病医学中心主任张文宏,1月 10 日在香港高山论坛上的一段讲话,他明确表示:“我拒绝把 AI 引入医院病历系统。”因为,未经系统

为什么越用AI,越觉得自己不值钱了?

不是AI让你贬值,而是它揭示了你思维的真实价值。

本文来自微信公众号: 不懂经 ,作者:不懂经也叔的 Rust,原文标题:《AI 时代的张文宏悖论:为什么越用 AI,越觉得自己不值钱了?》,题图来自:视觉中国

前几天,刷到一条短视频,是国家传染病医学中心主任张文宏,1月 10 日在香港高山论坛上的一段讲话,他明确表示:“我拒绝把 AI 引入医院病历系统。”

因为,未经系统性训练的 AI,会从根本上改变医生的培训路径,破坏或损害年轻医生需要通过传统训练才能掌握的独立诊断能力。

张文宏解释说,他自己当然用 AI,让 AI 先过一遍病例。但关键是,以他三十多年的临床经验,他一眼就能看出 AI 哪里错了。

问题在于年轻医生。

如果一个医生从实习阶段就开始依赖 AI 给诊断结论,跳过了完整的临床思维训练,那他将永远丧失一项关键能力:鉴别 AI 对错的能力。

张文宏的这番话,从一个普通 AI 用户的角度,道破了一个被普遍误解的现实,关于 AI 时代的技能和杠杆。

过去一两年,我看到一种奇特的“群体性焦虑”。

有意思的是,这种焦虑不是来自那些不懂技术的人,恰恰相反,它更多来自那些已经熟练使用 AI 的精英群体:程序员、律师、分析师、自媒体人。

大家最初都兴奋地以为,AI 会让自己成为超人。但短暂的效率狂欢之后,很多人陷入了一种更深的无力感:

当 AI 能以零成本完成 80%的工作时,我剩下那 20%的价值,到底能不能撑起我的职业尊严?

如果一个 AI 可以几分钟搞定我两周的代码;如果大模型能秒出一份完美的尽调报告;如果 gemini 或豆包能让毫无绘画基础的人产出大师级作品,如果 gpt 能够“准确”阅读体检报告或检查报告,那人类技能的护城河,究竟还在哪里?

之前,大西洋月刊曾经发表过一篇文章,说我们正在进入一个去技能化的时代;但硬币的另一面恰恰是:AI 并没有让技能变得无用,它引发的是一场剧烈的“技能通胀”。只是技能要被重新定义。

在一个执行成本趋近于零的时代,AI 就是一面照妖镜。它放大的不仅是你的效率,更是你认知的颗粒度或精度。

你感到“废了”,可能是因为 AI 无情地暴露了一个事实:过去你引以为傲的工作,大部分只是在“搬砖”,是执行,是“听话照做”,而不是在“思考”,更不是提出问题和解决问题。

21 世纪的技能真相,不再关乎你手里有多少工具,而关乎你脑子里有多少原本的真实的杠杆。“宏观把控+微观验证”的综合能力,才是 AI 时代真正的铁饭碗。

一、张文宏悖论:0的 10 倍还是 0

硅谷有一个广为流传的观点,但常常被误读。

人们说:“AI 是生产力的 10 倍放大器。”

这句话的数学含义,比字面意思更冷酷。

如果你现在的能力是 1,AI 让你变成 10;如果你是 10,AI 让你变成 100。但如果你对某个领域的底层理解是 0,那么,0 乘以 10,依然是 0。

这正是张文宏担忧的核心:一个从实习阶段就依赖 AI 的年轻医生,他的临床判断力可能就是 0。AI 再强大,0 乘以任何数,结果还是 0。

更可怕的是,这个“0”自己还不知道自己是 0。

张文宏说得很直白:“新手医生不能只会依靠 AI 看病。”为什么?因为即使 AI 准确率高达 95%,那 5%的错误也需要由专业医生来识别和纠正。

如果医生根本不具备独立诊断能力,他怎么发现 AI 的错误?怎么处理 AI 搞不定的疑难杂症?

这就是我说的“张文宏悖论”,某种层面上,它是个先有鸡还是先有蛋的问题。但另外一个层面上,它强调的是,是人在用工具,还是工具在用人。

它揭示了 AI 时代技能的第一层真相:

AI 的本质是“概率的拟合”,而人类的价值在于“后果的承担”。

过去我们说的技能,往往指的是熟练的执行,熟记语法、背诵法条、掌握各种快捷键。但在 AI 时代,这些硬技能迅速贬值,变成了基础设施。

取而代之的,是一种更隐蔽、更稀缺的能力:判断力。而所谓判断力,就是知晓自己行为的长远后果。

试想一个场景:一位资深工程师和一位新手同时用 AI 写代码。

新手得到的只是代码块。他无法判断这段代码有没有架构隐患,无法预知它在极端并发下的表现,甚至不知道这是不是一个“死胡同”式的解决方案。

而资深工程师看到的不是代码,是路径。他知道该给 AI 什么任务,知道如何验收结果,更知道当 AI 犯错时该在哪个环节修正,而 AI 一定会犯错。

对于新手,AI 是个黑盒,只能祈祷它输出正确答案。 对于专家,AI 是个无限精力的实习生团队,指哪打哪。

于是,未来的专家与普通人的分野,在于你是否具备“验证 AI 输出”的能力。

张文宏能一眼看出 AI 的诊断错在哪里,靠的不是什么神秘直觉,而是三十多年临床经验积累出的“元能力”。这种能力,恰恰是被 AI 跳过训练的年轻医生最缺乏的。

所以,如果没有深厚的专业知识作为压舱石,AI 带来的不是效率,而是昂贵的混乱。

二、为什么你的提示词总是“差点意思”?

为什么有的人能用 AI 解决复杂问题,有的人只能把它当聊天机器人?

问题不在于你不会写“咒语”,而在于你思维的熵值太高。

最近有一种很值得警惕的现象:人们开始把思考本身外包给 AI。

遇到问题,不做拆解,直接把一团浆糊似的需求扔给模型,然后对着平庸的输出发火:“这 AI 根本就没用。”

其实,不是 AI 蠢,是你没想清楚。

AI 模型再先进,本质上也是基于“上下文”的预测机器。它的输出质量,严格受限于你输入的上下文质量。这就是“Garbage In, Garbage Out”(垃圾进,垃圾出)的现代版。

21 世纪的顶级技能,变成了“清晰的表达”和“结构化思维”。

真正的高手在打开对话框之前,脑子里已经完成了一场严密的推演:

1.定义问题:我到底要解决什么核心矛盾?

2.拆解逻辑:这个大问题由哪几个子任务构成?依赖关系是什么?

3.设定标准:什么样的结果才算合格?

比如,在让 AI 协助开发一个功能前,你是否已经厘清了数据流向?在让 AI 写一篇文章前,你是否已经构建了独特的观点框架?

别指望 AI 替你完成“从 0到 1”的思考。

AI 擅长的,其实是填充血肉(从 1到 100),但那个“1”,那个核心的洞察、逻辑的骨架,必须由你提供。

如果你无法清晰地向人类同事阐述你的想法,你也绝不可能从 AI 那里得到满意的结果。

清晰的写作就是清晰的思考。

未来,用自然语言编程将是通用技能。但这不意味着编程变简单了,而是意味着语言和逻辑的精度成为了新的代码。

如果你的思维是混乱的,AI 只会高效率地放大这种混乱。

三、走出信息茧房:比 99%的人更接近本质

既然 AI 是基于人类已有的海量数据训练出来的,它天生就带有一个巨大的缺陷:平庸的共识,即向均值回归。

你问 AI 关于健康、理财或历史的观点,它大概率给你一个“教科书式”的回答。这些回答安全、正确,但往往极其平庸,因为它们只是重复了互联网上出现频率最高的信息。

这就引出了第三个维度:去伪存真的洞察力。

知识(Knowledge)和理解(Understanding)是两码事。

  • 知识是你知道“应该这样做”;
  • 理解是你明白“为什么要这样做,以及什么时候不该这样做”。

这正是张文宏和年轻医生之间的根本差距。

年轻医生通过 AI 可以瞬间获得“知识”,如诊断结果、用药建议、治疗方案。但张文宏拥有的是“理解”:他知道这些知识的边界在哪里,什么情况下要打破常规,什么时候 AI 给的“标准答案”是错的。

在这个信息过载的时代,如果你只是通过填鸭式教育和算法推荐获取信息,你本质上只是在一个巨大的“回声室”里机械复述。你并不真正理解事物的运作机制。

要比 AI 更聪明,我们需要比 99%的人更接近事物的本质(第一性原理)。

  • 想理解商业?不要只看畅销书和公众号,去研究现金流、杠杆、供需关系和人性的贪婪。
  • 想理解健康?不要只信所谓的权威指南,去研究代谢、激素、炎症反应的生物学机制。

当 AI 给你一个“标准化建议”时,只有那些真正理解底层系统运作的人,才能敏锐地发现其中的漏洞,或者在特殊情境下果断推翻 AI 的建议。

就像张文宏说的:会不会被 AI 误导,取决于你自身的能力有没有强过 AI。而你没办法和 AI 比知识,只能比理解。

未来的竞争优势,属于那些敢于质疑“训练数据”的人。你需要建立自己的认知体系,这套体系不是抄来的,而是你通过实践、通过痛苦的反馈循环、通过独立思考亲自验证过的。

AI 是全人类知识的平均值。如果你想超越平均值,你就不能只依赖 AI,你必须拥有 AI 无法通过统计概率得出的独到见解。

四、执行价值归零之后:从干活的到验收的

把视线拉长,历史虽然不会重复,但总是押韵。

1980 年代,电脑的普及曾让当时的会计和律师恐慌不已。在此之前,律师为了寻找一个判例,需要在堆积如山的卷宗中翻找数日。电子检索技术的出现,让这项工作瞬间变成了几秒钟。

律师失业了吗?没有。相反,法律行业变得更庞大、更复杂了。

因为检索变得容易,客户对律师的期望也随之提高。人们不再为“找到判例”付费,而是为“基于复杂判例构建独特的辩护策略”付费。

同理,当 AI 接管了代码编写、文案生成、基础诊断之后,人类的角色正在发生本质的跃迁:

我们正在从“手艺人”进化为“指挥官”;从“干活的”升级到“验收的”。

过去,一个优秀的工程师可能需要 50%的时间写代码,50%的时间思考架构。现在,他可以用 90%的时间去思考架构、理解业务、优化体验,而把代码工作交给 AI(并由他来审核)。

这意味着,工作的复杂度上限被打开了。

独立开发者现在可以一个人运行一家原本需要十人团队的公司;一个懂行的自媒体人可以一天产出过去一周的内容量;一个资深医生(如张文宏)可以在 AI 的辅助下处理过去根本不可能的病例量。

这就是 AI 时代“技能”的新定义:

它不再是单一维度的“专精”,而是一种跨维度的整合能力。

你不需要亲自砌每一块砖,但你必须知道大楼的力学结构,必须有审美能力来决定大楼的外观,必须有商业头脑来决定大楼建在哪里最值钱。

这种“宏观把控+微观验证”的综合能力,才是 AI 时代真正的铁饭碗。

张文宏强调的两大关键能力,本质上就是这个意思:

1.判断 AI 诊断的准确性(微观验证)

2.诊治 AI 无法应对的疑难杂症(宏观把控)

没有这两项能力的医生,只能算是“AI 的操作员”。

结语:只有升维,才能享受降维打击的快感

回到开头谈到的那个现象:为什么越用 AI,越觉得自己废了?

因为 AI 剥夺了你通过“苦力”获得成就感的权利。

以前,你花三天时间整理出一份精美的报告,会觉得自己很有价值;现在,AI 三秒钟就能做出来,这种虚幻的价值感瞬间崩塌。

这确实让人痛苦,但更是一种觉醒。

AI 逼迫我们直面那个最难的问题:除了机械的执行,我真正的思想价值在哪里?

对于那些不愿意思考的人,这是一个最坏的时代。他们将彻底沦为算法的附庸,甚至无法察觉自己正在被平庸的信息茧房吞噬。

但对于那些充满好奇心、拥有独立思考能力、渴望探究事物本质的人,这是人类历史上最好的时代:

  • 所有的门槛都降低了。
  • 所有的天花板都消失了。
  • 你拥有了人类历史上最强大的智囊团和执行队,24 小时待命。

张文宏不是反对 AI,他反对的是跳过底层能力建设直接使用 AI,把思考和元认知外包给 AI。

他自己用 AI 用得飞起,因为他有三十年的内功作为地基。AI 对他来说是如虎添翼;而对于没有内功的年轻医生,AI 可能是拔苗助长,饮鸩止渴。

在 21 世纪,技能不会消失,但它会经历一次残酷的提纯。

不要试图和 AI 比赛“做题”,要去和 AI 比赛“出题”。

当你不再把 AI 当作一个帮你偷懒的工具,而是把它当作一个需要你用极高智商去驾驭、去指引、去纠错的超级杠杆时,

你通过 AI 看到的,就不再是平庸的自己,而是一个被无限放大的、强悍的超级个体。

市场机遇
Ucan fix life in1day 图标
Ucan fix life in1day实时价格 (1)
$0,006649
$0,006649$0,006649
-3,72%
USD
Ucan fix life in1day (1) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 service@support.mexc.com 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。