AI 与自动化的讽刺

标签: | 发表时间:2025-12-17 09:03 | 作者:
出处:https://x.com


1983年,一位认知心理学家 Lisanne Bainbridge 写了篇论文,题目叫《自动化的讽刺》。四十多年后的今天,这篇论文上预言的问题,正一字一句地在 AI Agent 身上应验。

当年她研究的是工厂自动化:机器干活,人类监督。

今天我们面对的是AI Agent自动化:AI干活,人类监督。场景变了,但底层逻辑一模一样。而她当时在论文中指出的那些问题,又重新来了一遍。

论文中都提到了哪些问题呢?

1. 技能退化困境:不用就会忘,专家变监工后技能会萎缩

用进废退,这四个字我们都懂。但放到AI时代,它有个更残酷的版本。

以前你是某个领域的专家,天天做这件事,手到擒来。现在公司说,让AI Agent来做吧,你负责盯着它,出了问题再介入。

听起来很美好对不对?从打工升级成监工,岂不是更轻松?

问题来了:你不做这件事了,但你的技能不止不会进步,甚至还会退化。

像我这样天天用 AI 写代码的,我能感觉得到这两年是没啥进步,而且对 AI 有依赖,很多以前信手拈来随手就可以写出来的代码,现在没有 AI 就啥都不想干了。

真的是有点用进废退了。

无论是 OpenAI 还是 Anthropic 都在吹他们的 Coding Agent 多厉害,他们的员工只要验证 AI 写的结果就好了,但是他们故意没提的是,这些人都是万里挑一的高手,他们有足够的经验判断AI对不对。但如果他们接下来几年都只是验证 AI 做的对不对,那么他们的技能会慢慢倒退。

像我们这一代老程序员还好,更要命的是下一代。

今天的老程序员们好歹是从实战中成长起来的。明天的程序员呢?他们从入行第一天就在盯AI,没怎么亲手做过。他们既没有技能,也没有机会学。那他们怎么判断AI对不对?

论文原话是: > 当前这代自动化系统,正在吃老一代操作员的技能老本。下一代操作员不可能有这些技能。

这个问题今天看不出来,三五年后可能就会凸显出来了。

2. 记忆提取困境:不常用的知识,调取速度也会变慢

还有个问题就是相关技能的记忆也会退化。

想想我们高中时哪些滚瓜烂熟的公式,现在还能想起来几个了。放到 AI 监督的场景,随着 AI 能力越来越强,大部分时候都是对的,这意味着大多数时候不需要用到你的知识,随着你的知识越用越少,相关的记忆就会退化。

3. 实践悖论:理论培训没用,必须实战才能学会,但AI在干活人没机会练

这时候你可能会想:那培训是不是有用? 但是《自动化的讽刺》论文中的结论是:培训并没有太大用。

因为专业技能不是听课听出来的,是在真实场景里靠实战锻炼出来的。课堂上学的理论,如果没有配套的实战练习,你很可能听不懂,因为没有相应的经验框架。就算当时懂了,很快也会忘,因为没有和真实任务绑定的记忆提取路径。

要保持监督AI的能力,你得定期亲自干活。但如果公司追求的是让 AI 自动化运转以提升效率,那人就没多少机会练手。

这是个死循环。

就像论文里面说的: > 我们训练操作员按指令行事,然后把他们放进系统,指望他们提供智慧。

你不能指望平时不需要怎么思考和练习的人类,在关键时刻能想出什么好办法。

4. 监控疲劳:人类无法长时间对"很少出错"的系统保持警觉

心理学研究早就发现,人类无法对一个很少出问题的目标保持长时间警觉,半小时是极限。这不是意志力的问题,这是生理结构决定的。

从进化角度看,这其实是个生存优势:如果你盯着一个地方什么都没发生,大脑会自动降低警觉,把注意力资源省下来应对真正的威胁。但放到监控场景里,这就成了问题。

AI Agent大部分时候是对的,偶尔会犯错。这恰好是最难监控的模式。如果它经常出错,你会保持警惕。如果它从不出错,你不用监控。但它很少出错这种情况,正好落在人类注意力的盲区里。

更糟的是,AI Agent犯错的方式特别隐蔽。它不会说"我不确定",它会用一种极其自信的语气告诉你它的计划,洋洋洒洒几十上百行。错误可能藏在第87行的一个小前提里,比如"因为2大于3,所以我们应该……"。被那么多看起来正确的内容包裹着,被那种自信满满的语气麻痹着,你很难注意到。

那加个自动报警系统呢?

论文说:谁来监控报警系统?如果报警系统本身出了问题,操作员不会注意到,因为报警系统已经正常运转了很久。

那让人做记录呢?

论文说:人可以机械地抄数字而完全没注意数字是什么。

所有试图对抗监控疲劳的手段,都会撞上同一堵墙:人类的注意力就是无法长时间锁定在一个很少出事的目标上。这是硬件限制,不是软件问题。

5. 地位问题:从专家降级为监工,心理冲击和社会地位下降

你曾经是专家,公司里有什么难题找你,同事尊重你,你自己也有职业认同感。现在你是AI的看门人。

技能层面的损失是一回事,心理层面的冲击是另一回事。从专家降级为监工,从创造者变成审核员,从被需要变成备胎。这种转变对很多人来说是很难接受的。

论文里说,被这样降级的人会出现各种复杂的应对反应,有些看起来甚至是自相矛盾的。这部分内容展开讲太长,有兴趣的可以去读原论文。

6. 糟糕的UI:当前AI Agent界面是最差的监控设计

工业自动化领域花了几十年时间优化控制室设计:显示屏怎么布局能让操作员最快发现异常,急停按钮为什么是红色的、为什么那么大、为什么放在那个位置。每一个细节都是用事故和教训换来的。

现在看看AI Agent的界面?

一堆自信满满的长文本,一个接一个的多步骤计划,几十上百行洋洋洒洒的解释。你要在这些文字里找出那个藏着的错误。

这大概是人类设计过的最糟糕的异常检测界面。

7. 训练悖论:越成功的自动化系统,越需要投资培训人类

论文中谈到自动化带来的训练问题: > 如果不能让操作员定期接管工作亲自干,就得用模拟器训练。但模拟器有个根本问题:你只能模拟你能预见的故障。未知的故障模拟不出来,已知但没经历过的故障也很难准确模拟。

那怎么办?

> 只能培训通用策略而不是具体应对方法。但这又带来新问题:你不能指望操作员光靠查操作手册来应对异常,因为手册不可能涵盖所有情况。

> 越是成功的自动化系统,越少需要人工干预,反而越需要在人员培训上投入巨资。 因为干预越少,人的技能退化越快,应对罕见异常的能力越弱,每次培训的成本就越高。

决策者想用AI省钱,但省下的人力成本可能得加倍投入到培训成本里。

8. 领导力困境:监督AI不只是被动看,还要主动"领导"它们

监督AI Agent不只是被动地盯着看,还得主动地指挥它们。告诉它们做什么、不做什么、分几步做、怎么调整方向。

这其实是一种领导技能。

为什么LinkedIn上夸AI Agent最起劲的往往是管理者?因为他们本来就习惯间接工作:设定目标、分配任务、给反馈、调方向,但不亲自动手。对他们来说,指挥AI Agent和指挥下属没有本质区别。

但对于一直亲自干活的执行者来说,这是一个巨大的角色转换。你得从一个做事的人,变成一个让别人做事的人。这不是改几条 prompt就能解决的,这是一整套技能体系的重建。

公司会给新晋经理做领导力培训。但有谁见过公司给AI监督者做领导力培训?

四十年前那篇论文的结尾是这样的: > 没有时间压力时,人类可以是令人印象深刻的问题解决者。困难在于,一旦有时间压力,效率就会大打折扣。我希望这篇论文说清楚了两件事:第一,自动化不一定会消除困难,这是讽刺所在;第二,解决这些问题需要的技术创造力,可能比自动化本身还要大。

四十年后,我们换了个场景,但面对的是同一组问题。

AI Agent的能力在进步,但人类的认知结构没变。监控疲劳还是半小时,技能退化还是用进废退,注意力盲区还在那里。这些是硬件限制,不是软件更新能解决的。

推荐阅读原文: 《Ironies of Automation》: https://ckrybus.com/static/papers/Bainbridge_1983_Automatica.pdf… 《AI and the ironies of automation - Part 1》 https://ufried.com/blog/ironies_of_ai_1/… 《AI and the ironies of automation - Part 2》 https://ufried.com/blog/ironies_of_ai_2/…
推荐阅读原文: 《自动化的讽刺》: https:// ckrybus.com/static/papers/Bainbridge_1983_Automatica.pdf... 《人工智能与自动化的讽刺——第一部分》 https:// ufried.com/blog/ironies_of_ai_1/... 《人工智能与自动化的讽刺——第二部分》 https:// ufried.com/blog/ironies_of_ai_2/

相关 [ai 自动化 讽刺] 推荐:

AI 与自动化的讽刺

- -
1983年,一位认知心理学家 Lisanne Bainbridge 写了篇论文,题目叫《自动化的讽刺》. 四十多年后的今天,这篇论文上预言的问题,正一字一句地在 AI Agent 身上应验. 当年她研究的是工厂自动化:机器干活,人类监督. 今天我们面对的是AI Agent自动化:AI干活,人类监督.

AI vs AI--当AI与自己聊天

- Tim - Solidot
Shawn the R0ck 写道 "最烦人的事情之一莫过于被强迫与一个白痴对话. 但当你发现你最讨厌与之交谈的白痴其实就是你自己的基于人工智能程序的拷贝...康奈尔创造性机器实验室决定看看当AI尝试跟自己交谈会发生什么. 他们的健谈的AI程序Cleverbot与自己进行文本交互,之后朗读出文本并且显示到视频中.

99 美元的讽刺

- babaru - 爱范儿 · Beats of Bits
百思买的 TouchPad 卖到 99美元,标志上赫然注释着:“为您节省 300美元”,得知这一消息后数码论坛里炸开了锅,各种有关如何抢购的指南成了当晚点击量最高的帖子. 99美元的价格点燃了消费者对 TouchPad 热情,可惜这种热情来的太迟,来的太突然. 很快,滞销的 TouchPad 被抢完了.

一家公司的 AI 教育观:AI 管「教」,真人来「育」

- - 极客公园
叮咚课堂 App 上线不过八个月,他们一面竭力在竞争异常激烈的在线少儿英语赛道上保持着刻意的低调,一面又疯狂地收获了平均 300% 月度的用户增长率. 这让他们创始人邱明丰对未来信心更盛了. 在艾瑞咨询发布的《2018 年中国在线幼儿启蒙英语行业白皮书》中提到,近年来人工智能在互联网教育领域大规模展开,但在在线幼儿启蒙英语教育中的应用甚少,随着资本的注入和行业的发展,其有望通过人工智能进一步提升用户在线启蒙英语学习的体验和效率.

AI 不是裁员的原因,巨额 AI 支出才是

- - 奇客Solidot–传递最新科技情报
美国公司在宣布大规模裁员时通常以 AI 为借口,但裁员的原因真的是 AI 吗. 很多研究和数据给出了不同观点:MIT 媒体实验室的研究发现,95% 的生成式 AI 试点商业项目没有成功;Atlassian 的调查显示 96% 的企业没有看到 AI 显著改进了组织效率、创新或工作质量;另一项研究显示四成企业员工在工作中面临“AI 垃圾(AI slop)”问题,需要花大量时间处理该问题.

直慑心灵的讽刺:Paweł Kuczyński 插画赏

- 中 - 有意思吧
波兰插画师Paweł Kuczyński的作品,20幅寓意深刻的插画,每张作品都充满讽刺性和想象力. 在披萨店里,用吃披萨的方式喝起了汤. 没有童年的娱乐,只有现实的生活. 穷人的梦想,成就有钱人的餐桌. 战争所带来的创伤,是无法缝补的. 在外人看来,富人的东西大多都是摆设,既不能前也不能后,. 不过这些摆设往往能让他们通向彼岸.

贪吃蛇AI挑战赛第二季

- 温柔一刀 - 黑客志
如果你对这个活动感兴趣,可以先从这里开始,编写一个AI程序,然后将你的AI程序以及你对平台的改进建议发送到jin.cai20#gmail.com,主办方将会从中选择12名选手参加6月24到25持续一个周末的编程派对,并提供往返交通及住宿费用,下面是活动的详情:. 时间: June 24th – June 26th *.

AI 政策引发失业担忧

- - 最新更新 – Solidot
政府智库——中国发展研究基金会和红杉中国的报告 显示,中国出口制造业省份浙江、江苏和广东的几家公司在这三年内因自动化削减了 30% 至 40% 的劳动力. 北京正在实施雄心勃勃的政策以升级制造技术. 官方媒体对包括人工智能领域在内的政府发展目标的报道都集中在积极因素上. 然而,有关当局悄然对此类政策导致的裁员表示了担忧.

科创板,一瓶AI的卸妆水?

- - IT瘾-tuicool
编者按:本文转自 甲子光年,作者小北. “一级市场估值和泡沫怎么起来的,他们自己心里没点数吗. ”一位券商科技产业分析师在谈起即将到来的科创板时对我们说. “我们反正第一批肯定先不上. ”一位AI独角兽融资负责人面对我们对科创板的提问,回答略显暧昧. “你说那家公司为什么就值这么多钱呢. ”一位国内顶尖券商的投行业务部门负责人也曾反问我们,“反正他们的材料递到我这儿,我不会签字.

AI在运维中的应用

- - IT瘾-geek
要:随着X86分布式技术应用,服务器数量越来越多,网络拓扑结构越来越复杂,运维越来越辛苦,风险越来越高. 智能化运维AIOPS将AI技术应用在运维场景,是DevOps的运维部分,是“开发运维一体化云中心”的重要基础设施之一,其最大的价值在于缩短故障恢复时间,提高IT服务连续性. 本文描述一个运维及在这个场景下对AI的需求,目标是尝试将AI引入运维过程,提高运维效率、缩短故障恢复时间.