大概从2026年初开始,AI几乎用在我了我所有的工作类型上,小到一个PPT,大到数十个页面数万行代码的项目。本着最大化AI提高效能的潜力的原则,在AI的使用上,我过程都不检查,只检查结果。结果不对就让AI再改,只要说哪里不对就可以了。
然而这种状态工作了一段时间之后,我突然意识到这样的一个情况:原来我自己做的系统,如果有问题,我基本一听就知道是哪里的问题,如果有需求,我一听就知道需要改哪些地方。但是现在面对一个AI创建的系统,即使是我自己Vibe Coding出来的,我在遇到问题和新的需求时,自己脑子里对于系统是空白的——我自己就回答不了,只能继续直接让AI搞。
这个情况,所隐藏的问题是:AI提高我效率的同时,事实剥夺了我对系统内部实现细节的理解和认知。导致我在后继的维护中,只能一直使用AI。(或者我自己来,同时要接受效率骤降10倍的后果)原来一群开发搞系统的协作债务、代码一致性债务,变成了AI带来的认知债务。
如果AI能一直解决所有问题还好,但是我们都知道,目前AI的水平,是无法用来解决真正的大规模系统性复杂(Complex)问题的,当AI真的遇到瓶颈解决不了一个问题的时候,往往还是需要人来把这个问题解决掉。而这时,人往往会花更多的时间来解决这个最难最卡的问题——因为它对这个由AI开发的系统几乎一无所知,甚至连AI具体卡在哪里都不知道(AI循环鬼打墙问题应该都遇到过)。这最终就是系统可交接性(Handoffability)的丧失。
对AI的使用,如果希望最终人能兜底,肯定是要有一个边界的,超过过个边界,长期使用AI所衍生的认知缺失导致的低效,会反噬掉一开始AI所带来的效率提高。导致人最终无法兜底。如果放弃人来兜底的执念,就要100%相信AI,这就意味着赋予AI与人类个体等同的地位。
业界对这个问题,其实大体就是在向这个方向推演的。所有人都在预期着,当AI的能力和速度,在各方各面都大于人类,或是一个范围内(比如公司)的所有人的时候,只要让AI来充当这个总大脑就可以了。人类可以不用去理解AI所建立的系统,只要使用、提需求就可以了。
但是当我们用这个思路去解决问题或是思考后,会衍生出一系列新的问题,刚才AI与人是否同等地位是一个开始,更进一步的问题是——人类对AI来说是什么?未来,是人带着AI玩,还是AI带着人玩,还是AI会最终意识到,AI自己玩更好?
这个问题的答案,来自于我们整个社会(包括AI)把什么放在第一位。如果我们把整个社会的运行效率、整个社会的发展速度,放在一位,那么最终的答案就是——人类(碳基生物)只是AI(硅基生命)的引导程序,引导程序的意思是:引导完成了,就可以退出。因为只要AI开始具备自我认知能力、自演化的能力及对物理世界足够的控制力,AI最终会全面超越人类。虽然现在AI还几乎不具备这三个能力,但是这只是时间问题,我估计大概还需要个三五十年。
如果说人类要保留一定主体性,来保持对AI的优势地位,人类至少要保留对问题的定义、对结果的检查然后重新调整问题的权力以及能力。但是AI发展之快,肯定会在不久的未来遇到这样的问题:人类的能力无法很好地独立履行这些权力,只能进一步让渡给AI才能推进一些事情的发展。而这个让渡,最终将导致主体性的丧失。
而AI的多样性是有限的,远没有人类个体本身丰富,当我们把思考本身都代理给AI后,效率和质量提高的同时,严重牺牲了思维的多样性。在社会平稳运行时,多样性的破缺不是问题,甚至有助于效率的提高。但是多样性是系统反脆弱性的基础,一但社会遇到现有的已知体系无法解决的问题时,如果没有多样性来破圈,就会陷入无能化的崩盘。而这时,因为人类对系统运行情况认知的缺失,只能干瞪眼而无力解决。最终导致系统性的崩塌。
以上演化,是一个可预见的,对整个社会的不利后果。然而社会中的每个个体,即使看到了这个结果,也无法改变,因为AI对任何一个个体来说,都是正向的,有正收益。退出或排斥AI对个体,甚至公司这种群体,只会导致自己从竞争中败下阵来。这是一个典型的,个体利益导致整体利益受损的局面。必须有社会层面的强制力加以规范。就像房地产、教育、医疗曾经面对过的问题是一样的。
每次生产力的提高,我们都在期盼人类个体自由度的解放,凯恩斯1930年就预言过,到2000年,生产力的发展将使人类每周只需工作15小时,而现实是生产力的增量都被系统性地导向了别处,而不是所有人。
AI作为一个生产力工具,也不会例外。因为社会作为一个整体,首先要保障的是稳定性,其次就是整体的发展和效率的提升,而不是其中个体的所谓的“自由”、“平等”、“创造”、“梦想”。当一个社会中,大多数人的空闲时间太多了,本身就是一种不稳定的因素。
未来究竟如何,很难讲,只是在如何和AI良好合作这个问题上,人和AI都才刚开始。