这项由伊利诺伊大学厄巴纳-香槟分校研究人员完成的理论经济学研究,以预印本形式发布于2026年5月,论文编号为arXiv:2605.05558v2,有兴趣深入了解的读者可以通过该编号在arXiv平台查询完整论文。
说到AI抢饭碗这件事,几乎每个人都听过一个听起来很有道理的说法:AI可以无限复制,成本几乎为零,所以它会像洪水一样涌入职场,把脑力劳动者的工资直接冲到地板上。这个说法流传甚广,甚至连不少经济学家也默认接受了它。然而,这篇研究认为,这个说法在逻辑上犯了一个根本性的错误——它把"AI是谁"这件事搞混了。
搞清楚这个混淆,不仅仅是学术上的较真,它直接决定了你如何理解自己未来的工资单,也决定了政府应该拧哪个阀门来应对AI冲击。
一、一个流行但错误的直觉:AI是"无限供应的劳动力"
先来还原那个流行的直觉是怎么运作的。传统经济学告诉我们,工资由劳动力的供给和需求共同决定。当市场上某种劳动力的供给突然大幅增加,就像大量移民涌入某个城市——工资自然会被压低。沿着这个思路,很多人把AI智能体(也就是能执行各种脑力任务的AI系统)看成一种"新型劳动力"。而且这种劳动力可以无限复制,边际成本趋近于零,相当于有无穷无尽的"工人"愿意以接近零的价格工作。按这个逻辑,脑力劳动者的工资自然会崩溃到零。
这个推理链条听起来无懈可击,但研究者指出,它在第一步就走错了方向——AI智能体根本不是劳动力。
把AI当劳动力,就像把一台纺织机器当成纺织工人。纺织机器确实能完成织布这件事,但它不是"工人",它是"机器"。没有人会说"因为纺织机器可以无限生产,所以纺织工人的工资会归零"——这显然忽略了机器本身需要消耗资源(电力、原材料、维护费用)这一基本事实。AI智能体也是如此。它不是一个坐在那里等待雇佣的"人",而是一套需要消耗大量算力资源才能运转的技术系统。
二、正确的框架:AI是把算力变成劳动力的转换机器
研究者提出了一个更准确的理解框架。在这个框架里,AI智能体扮演的角色是"资本到劳动力的转换技术"——它把算力资本(GPU芯片、电力、数据中心、模型权重等)转化为有效的认知劳动单位。
用一个更直观的比方来理解:可以把AI智能体看成一座发电站,而算力资本是发电站消耗的燃料。发电站本身不会因为能发出无限多的电就不需要燃料——它每发一度电,都要消耗真实的资源。AI每完成一个小时的认知工作,都需要消耗真实的GPU机时、电力和带宽。这些资源不是免费的,也不是无限的。
在这个框架下,一个关键问题就变了:决定AI"劳动力"成本的,不再是什么"劳动力市场的供给曲线",而是算力资本的租用价格。而算力资本的供给,受到芯片制造产能、电力基础设施、数据中心建设周期、地缘政治限制等一系列非常真实、非常有限的物理和政治约束。这意味着算力的供给是有限且缺乏弹性的,尤其是在短期内。
换句话说,AI劳动力的"弹性"不是无限的,它的弹性继承自算力资本市场的弹性,而后者是有限且受约束的。这一点从根本上改变了我们对工资定价机制的理解。
三、"算力锚定工资":一个简洁但强大的定价公式
基于上述框架,研究者推导出了一个核心结论,称之为"算力锚定工资"(Compute-Anchored Wage,简称CAW)。
核心命题是这样的:在那些人类认知劳动和AI智能体可以相互替代的任务上,竞争性市场中人类劳动者的工资上限,由三个因素共同决定——算力资本的租用价格(rc,可以理解为租用一块GPU芯片的每小时费用)、完成一个有效劳动单位所需的算力数量(k,可以理解为AI完成一小时等效工作需要消耗多少GPU时)、以及人类相对于AI的生产率比值(λ,如果人类比AI效率高,λ大于1;如果AI更强,λ小于1)。把这三个数字乘起来,就得到了人类工资的上限:WH ≤ λ × k × rc。
这个公式背后的经济逻辑其实非常朴素。一家公司在决定是雇人还是用AI时,本质上是在比较两种方式完成同一项工作的成本。如果人类的工资比用AI更贵,公司就会完全转向AI;如果人类工资更便宜,公司就会完全雇人;只有当两者成本相等时,人类和AI才会同时被使用,此时人类工资恰好等于λkrc。在竞争性市场中,这个等式就是工资的锚定点。
最重要的推论就此浮现出来:在可替代任务上,人类劳动力的供给曲线(有多少人愿意以什么价格工作)根本不出现在决定工资的那个关键方程里。决定工资的是算力市场的参数,而不是劳动力市场的参数。价格决定权,从劳动力市场迁移到了算力资本市场。
四、用真实数字感受这个上限有多低
为了让这个公式不只是停留在数学层面,研究者用2024至2025年真实的市场价格进行了数值标定,结果相当发人深省。
以算力租用价格为例,2024年市场上H100型号的GPU云计算租用价格大约在每小时2到5美元之间,长期合约价格约为每小时1.5美元,研究者取中间值每小时2美元作为基准。
算力强度方面,对于一个前沿大模型(比如目前最强的那类推理模型),要完成相当于一位资深知识工作者一小时工作量的任务,大约需要消耗0.5到2个H100 GPU小时的算力,研究者取1个GPU小时作为基准。而对于那些用小型精简模型就能完成的简单任务(比如文件分类、摘要提取),算力消耗只需0.05个GPU小时。
人类相对AI的生产率比值,研究者取三种情景:AI更强(λ=0.5)、两者相当(λ=1.0)、人类更强(λ=2.0)。
把这些数字代入公式,得到的结果清晰地展示了AI对工资的压制力度。在小型精简模型就能胜任的任务上,即便人类效率是AI的两倍(λ=2.0),工资上限也只有每小时0.20美元——这远远低于任何国家的最低工资标准,意味着在这类任务上,人类劳动者实际上已经完全失去了竞争力,工资早已被压到底部。在需要前沿大模型才能完成的任务上,工资上限目前大约在每小时1到10美元之间,具体取决于人类的效率优势有多大。
这个数字还会随着技术进步持续下降。每当算法效率提升(k下降),或者算力价格降低(rc下降),这个上限就会按比例压缩。如果将来算法效率每年翻倍,理论上这个工资上限会呈指数级下降,趋近于零——当然,这需要以硬件瓶颈没有阻碍算法进步为前提。
五、不是所有脑力工作都会被拖下水
一个合理的担忧是:这个理论是不是意味着所有脑力工作者都会被算力市场绑架?研究者给出了一个更细腻的回答:只有"可替代任务"才受这个工资上限约束,"互补性任务"不但不受压制,还可能因为AI的普及而工资上涨。
可替代任务是指那些AI和人类可以相互取代的工作,比如起草合同、生成代码、撰写摘要、进行初步文件审阅、数据分类等。在这些任务上,雇主真的可以在人和AI之间自由选择,所以工资会被算力成本锚定。
互补性任务则是指那些AI的存在反而让人类更有价值的工作,比如在高度不确定性下做判断、承担法律责任和道德责任、处理复杂的人际关系和政治协调、跨领域整合判断、品味与审美决策、对AI本身进行监督和纠错等。在这些任务上,AI是人类的助手而不是替代品,随着AI能力增强,人类在这些任务上的边际价值反而上升,工资可能随之提高。
这带来了一个关键预测:脑力劳动者之间的工资分化,将不再主要沿着传统的"高技能vs低技能"轴线发生,而是沿着"可替代任务占比vs互补性任务占比"这条新轴线撕裂。
研究者用两个法律行业的例子做了直观对比。初级合同审阅律师助理的工作大约80%属于可替代任务(提取条款、对照模板标注、撰写摘要备忘录),只有20%属于互补性任务(判断是否需要升级处理)。高级诉讼律师则相反,大约只有30%是可替代任务(文件审阅、起草简报),而70%是互补性任务(案件策略、客户管理、出庭辩护)。按照这个框架,律师助理的工资会随着k下降而持续被压缩,而高级律师的工资则可能因为AI辅助而提升。两个受过同等正式训练年限的人,仅仅因为工作内容中两种任务的比例不同,就会走上截然不同的薪资轨迹。
六、对整个社会的钱流向了哪里的影响
从宏观角度来看,这个机制带来的不只是个体工资的变化,而是整个社会财富分配格局的重塑。
当算力替代人类认知劳动在可替代任务上发生时,人类劳动的工资收入这块蛋糕就在缩小,而算力资本的租用收入这块蛋糕在膨胀。也就是说,本来属于劳动者的收入份额,正在以加速度流向算力基础设施的所有者、能源生产者以及模型知识产权持有者。
更微妙之处在于,这些新型"资本所有者"和历史上那批拥有工厂和机器的资本家并不完全重合。如今受益的是那些持有数据中心股权的科技巨头、向数据中心供电的能源公司、以及掌握模型权重这一关键无形资产的AI实验室。这把现有的关于"资本与劳动"的政策讨论带入了一个新的具体战场。
正因如此,研究者认为,真正有效的政策干预手段不在劳动力市场,而在算力资本市场。具体来说,有四条政策杠杆值得认真考虑。
对算力征税是第一条杠杆。对rc征税会按比例提高CAW上限,相当于给人类工资设了一个更高的"地板"。短期内,由于算力供给弹性低,税收负担主要落在算力所有者身上;长期来看,当算力供给弹性提升后,负担会逐渐向产品价格和最终消费者转移。无论是从能源外部性出发的"庇古税"思路,还是从算力供给相对缺乏弹性出发的"拉姆齐税"思路,都指向对算力征税是合理的。
提供公共算力是第二条杠杆。如果政府以边际成本供应算力,可以压缩私营算力的定价空间,进而降低rc中的利润加成部分。不过需要注意的是,这实际上是在压低CAW上限,让认知输出产品的消费者受益,而不是让可替代任务上的劳动者受益——因为工资上限降低了,工人并没有得到好处。
对芯片市场进行反垄断是第三条杠杆。如果算力市场存在垄断,rc里就包含了超额利润加成。打破垄断会压缩这个加成,降低rc,这同样会降低CAW上限。这里存在一个经典的政策权衡:消费者剩余增加了,但可替代任务上的工人工资空间进一步收窄,分配后果相当显著。
能源政策是第四条杠杆。算力成本中有相当大一部分是电力成本。凡是降低数据中心电力成本的政策(建设输电线路、为核电站审批松绑、补贴可再生能源),都会通过rc这个渠道传递到CAW上限。由于认知产品通过数字网络全球流通,这种影响不局限于本地,而是具有全国乃至全球性的分配效应。
七、这个框架的边界在哪里
诚实的研究需要说清楚自己的局限。研究者专门列出了几个可能使这个框架失效或需要修正的情形。
"杰文斯效应"是一个重要的反驳。历史上,蒸汽机让每单位煤炭能做的功大幅增加,但煤炭的总消费量反而上升了——因为用煤炭干活变便宜了,大家就干更多活。同理,认知劳动单位成本下降,可能会引发对认知劳动产品的需求爆炸式增长,最终反而让人类在可替代任务上的总就业量上升。CAW锚定的是工资,而不是就业量,总补偿是否上升,取决于认知产品需求的价格弹性有多大。
比较优势的问题也需要考虑。即便AI在所有任务上都比人类效率更高,人类也可以凭借比较优势留在某些领域——专注于自己相对劣势最小的任务。但研究者指出,比较优势决定的是劳动分配,而不是价格,可替代任务上的工资仍然被算力成本锚定。
工资中非生产率的部分也不容忽视。真实工资不只由边际产出决定,还包括法律责任溢价(比如人类律师要签字负责)、信任溢价、信号传递溢价、物理在场溢价等。CAW锁定的只是边际产出对应的那部分工资,其他溢价成分并不在这个框架之内。
算力市场的竞争性假设也需要小心。如果算力市场高度垄断,rc就不再是竞争性价格,而是包含了垄断溢价的定价,整个分析就变成了一个关于政治经济学的问题,而不只是价格机制的问题。
还有一个动态问题:任务边界不是固定的。随着AI能力持续提升,原本属于互补性任务的工作会逐渐迁移到可替代任务一侧。今天让高级律师不可替代的"案件策略判断",也许五年后就会变成AI擅长的领域。这意味着CAW不只是一个静态的工资上限,而是一个随着AI能力扩张而不断向更高技能层次延伸的动态天花板。
归根结底,这篇研究做的事情,是把一个已经被很多人直觉感受到却说不清楚的现象——"AI在压低工资"——放到一个精确的经济框架里,然后指出压力来自哪里、经由哪条管道传导、可以通过哪些政策杠杆加以干预。说到底,你的工资天花板是由某个你可能从未听说过的GPU芯片租用价格决定的,这件事本身就足够引人深思。如果你从事的工作里,有相当大比例可以被描述为"按规范执行、提取信息、归纳总结、初步分析",那么这个框架描述的正是你薪资走势的底层逻辑。而如果你的工作核心是"在模糊情境下做判断、承担责任、协调关系",那么AI的普及反而可能是你的机会。有兴趣进一步探究这个问题的读者,可以通过arXiv:2605.05558v2找到完整论文。
Q&A
Q1:算力锚定工资(CAW)公式里的三个参数λ、k、rc具体是什么意思,普通人怎么理解?
A:rc是租用GPU算力的每小时价格,就像租一台机器的租金;k是AI完成一小时等效工作需要消耗多少GPU时,相当于这台机器的"油耗";λ是人类和AI效率的对比,人类更强则λ大于1,AI更强则小于1。三者相乘,就是人类工资的上限——公司最多只愿意付这么多雇人,因为超过这个数就不如直接用AI了。
Q2:互补性任务和可替代任务怎么区分,如何判断自己的工作属于哪种?
A:可替代任务是那些可以用明确规则描述、输出可以被检验的工作,比如归纳摘要、对照模板审阅文件、按规范生成代码。互补性任务则是需要在信息不完整时做判断、需要承担责任、需要处理人际关系或跨领域整合的工作。判断标准是:如果一项工作的过程和标准可以被完整写下来,它大概率是可替代的;如果它的核心价值恰恰在于处理"写不下来的部分",它更可能是互补性的。
Q3:政府对算力征税会提高还是降低普通劳动者的工资?
A:短期内,对算力租用价格征税会提高CAW上限,相当于给可替代任务上的人类工资设了更高的竞争门槛,对劳动者有利。但长期来看,当算力供给变得更有弹性,税收负担会向消费者转移,并通过价格机制间接影响工资。同时,公共算力供给这条路线虽然降低了rc,但反而会压低工资上限,让消费者而非劳动者受益——所以政策设计需要在效率和分配目标之间做出明确权衡。