当最优解摆在面前,"选择权"是尊严还是负担?
一、一个被回避的真相
所有人都在讨论 AI 会不会取代人类的工作,但很少有人问一个更根本的问题:
AI 会不会取代人类的决策权?
不是科幻电影里那种"AI 反抗人类"的戏剧性场景,而是一场静默的、理性的、不可逆的权力转移。
这场转移的核心机制不是"抢夺",是迫使。
AI 不会抢走你的决策权,它会让决策权变得"没必要"。
当 AI 的建议总是更准确、当 AI 的决策总是更高效、当不用 AI 的代价越来越高时——
你不是被剥夺了权力,你是理性地放弃了权力。
这就是 AI 时代最大的悖论:
人类越是理性地追求效率和福祉,就越会放弃决策权给 AI。
人类越是想保留决策权,就越要接受"次优决策"的低效。
你选哪个?
二、权力放弃的四大机制
机制一:便利性陷阱
权力不是被抢走的,是自己交出去的——因为太方便了。
回想一下你是怎么失去"认路能力"的:
第二阶段:导航太准,你懒得想
第三阶段:你习惯导航,不再思考
第四阶段:你失去认路能力,必须依赖导航
现在,把这个过程复制到每一个决策领域:
- 吃什么 → AI 推荐
- 看什么 → AI 筛选
- 买什么 → AI 比较
- 和谁交往 → AI 匹配
- 做什么工作 → AI 建议
当 AI 的建议准确率持续高于人类直觉时,"自己想想"变成了一种低效的执念。
便利性陷阱的逻辑链:
便利 → 依赖 → 能力退化 → 无法收回
这不是假设,是已经发生的事实:
- 你还会心算吗?
- 你还会记电话号码吗?
- 你还会看纸质地图吗?
下一步,你还会自己决策吗?
机制二:效率碾压
这不是个人选择问题,是竞争问题。
想象一个职场场景:
员工 B:AI 决策,100 分满分得 95 分,用时 30 分钟
谁会升职?谁会留下?
答案显而易见。
效率碾压的逻辑链:
效率竞争 → 不用 AI 者出局 → 全员被迫用 AI → 决策权转移
这不是阴谋,是经济理性。
任何拒绝 AI 决策的个人、组织、国家,都会在竞争中被淘汰。
所以,"用不用 AI"从来不是选择,是生存问题。
机制三:系统级锁定
当社会基础设施由 AI 运营,"不用 AI"变成理论权利。
今天,你还可以选择不用 AI:
- 不用 AI 理财
- 不用 AI 诊断
- 不用 AI 导航
- 不用 AI 求职
但未来呢?
| 系统 | 未来场景 |
|---|---|
| 金融 | AI 风控→不用 AI 无法贷款 |
| 医疗 | AI 诊断→不用 AI 保险不赔 |
| 交通 | AI 调度→人工驾驶限区域 |
| 就业 | AI 匹配→不用 AI 无面试机会 |
系统级锁定的逻辑链:
基础设施 AI 化 → 人类选择权变成理论权利 → 实际无法行使
这不是科幻,是正在发生的现实:
- 不用智能手机,你无法出示健康码
- 不用在线银行,你无法享受基本金融服务
- 不用导航软件,你无法在陌生城市高效出行
当"退出权"的成本高到无法承受,它就不再是权利。
机制四:责任规避
人类会主动把决策权交给 AI,因为这样不用承担责任。
医疗场景:
医生 B:AI 诊断,出错→系统问题→无人负责
哪个医生更安全?
哪个医院会鼓励哪种做法?
责任规避的逻辑链:
AI 决策 = 责任缓冲 → 人类主动放弃决策权以规避责任
这不只是医疗,是所有专业领域:
- 法官:AI 判例分析→人类裁决→出错是 AI 的问题
- 投资顾问:AI 推荐组合→客户确认→亏损是市场的错
- 教师:AI 批改作业→教师审核→分数低是学生的问题
当 AI 成为责任缓冲垫,人类会主动让渡决策权。
三、正在退化的"决策肌肉"
用进废退,是生物的基本法则。
当决策权交给 AI,人类的决策能力会退化——就像肌肉不用会萎缩。
| 能力 | 当前状态 | 10 年后 |
|---|---|---|
| 方向感 | 已退化(导航依赖) | 几乎消失 |
| 记忆力 | 已退化(搜索依赖) | 几乎消失 |
| 计算力 | 已退化(计算器依赖) | 几乎消失 |
| 社交判断 | 开始退化(AI 匹配依赖) | 显著退化 |
| 消费决策 | 开始退化(推荐依赖) | 显著退化 |
| 职业选择 | 开始退化(AI 建议依赖) | 显著退化 |
| 价值判断 | 尚未退化 | 可能退化 |
关键问题:
当"决策能力"本身退化后,人类还有什么能力可以制衡 AI?
当 AI 问你"要不要听听我的建议"时,你连判断"该不该听"的能力都没有了。
四、历史的镜像
AI 不是第一次让人类"被迫放弃权力"。
历史上有过几次类似的权力转移:
| 权力转移 | 放弃前 | 放弃后 | 结果 |
|---|---|---|---|
| 暴力权 | 个人复仇、私斗 | 国家垄断暴力 | 社会更稳定 |
| 审判权 | 部落长老、私刑 | 法院系统 | 更公正 |
| 货币权 | 金银实物交易 | 央行法定货币 | 经济更高效 |
| 信息权 | 口耳相传、个人记忆 | 印刷术、互联网 | 知识民主化 |
| 出行权 | 自己认路、驾驶 | 导航、自动驾驶 | 更高效 |
共同模式:
低效自主 → 高效依赖
分散决策 → 集中优化
每次权力放弃后,人类整体福祉提升,但个体自主性下降。
AI 决策权转移是这一历史进程的延续,不是例外。
五、人类可能守住的最后堡垒
如果权力转移不可逆,人类还有什么可以守住?
我认为有四个最后的堡垒:
堡垒一:痛苦体验权
AI 可以替你决策,但不能替你痛苦。
- 失恋的痛苦
- 失败的痛苦
- 失去的痛苦
- 选择的痛苦
痛苦 = 意义的载体
没有痛苦,就没有真正的"活着"的感觉。
AI 可以安慰你,但不能替你感受痛苦。
危险: 当 AI 可以模拟痛苦、消除痛苦时,人类可能连"痛苦权"都放弃。
堡垒二:荒谬选择权
AI 总是选择最优,但人类可以选择不优。
- 明知道会输,还是要试
- 明知道不理性,还是要爱
- 明知道没回报,还是要做
荒谬 = 自由的终极证明
能选择"错误",才是真的自由。
AI 无法替代:AI 的目标函数里,"荒谬"是负分。
危险: 当"荒谬选择"的代价太高(被系统排斥),人类会自我审查。
堡垒三:无意义权
AI 总是追求意义最大化,但人类可以浪费生命。
- 发呆一整天
- 做没用的事
- 走没目的的路
无意义 = 对效率暴政的反抗
能"浪费",才是真的拥有时间。
AI 无法理解"无意义"的价值——它的存在意义就是优化。
危险: 当社会被 AI 效率逻辑统治,"无意义"变成奢侈甚至罪恶。
堡垒四:死亡权
AI 可以延长生命,但不能替你去死。
- 接受死亡的必然
- 选择死亡的方式
- 赋予死亡意义
死亡 = 生命的边界
能面对死亡,才是完整的生命。
AI 没有死亡概念,无法理解"向死而生"。
危险: 当 AI 把死亡定义为"可解决的问题",人类失去面对死亡的能力。
六、个体的生存策略
在权力转移的大趋势下,个人如何选择?
策略一:清醒的依赖者
用 AI,但知道自己放弃了什么。
定期"断 AI",保持能力。
就像定期断食,让决策肌肉保持活力。
策略二:边界守护者
明确哪些领域绝不用 AI:
- 亲密关系决策
- 价值观选择
- 人生意义问题
有些领域,效率不是第一价值。
策略三:增强型人类
不是被 AI 替代,是与 AI 融合。
学习 AI 协作技能,成为"人机混合体"。
未来不属于 AI,也不属于人类,属于会用 AI 的人类。
策略四:真实经济参与者
在 AI 生成泛滥的世界里,提供"真实":
- 真人创作
- 真实经历
- 真人服务
当 AI 可以生成一切,"真实"变成稀缺资源。
策略五:元权力追求者
不参与应用层竞争,追求上游权力:
- AI 系统设计
- 价值函数定义
- 规则制定
不控制 AI 做什么,控制 AI 是什么。
七、终极判断
权力转移不可逆,但形式可塑造。
人类不会"输掉"这场战争,因为:
- 这不是战争,是演化
- "人类"的定义本身会改变
- 权力不会消失,会转化
关键不是"守住权力",是"在权力转化中保持人的核心"。
什么是"人的核心"?
- 感受痛苦和快乐的能力
- 选择荒谬的自由
- 面对死亡的勇气
- 赋予意义的本能
这些,AI 拿不走——除非人类自己放弃。
八、行动清单
读完这篇文章,你可以做什么?
- 定义个人 AI 使用边界:哪些领域绝不用 AI
- 每周"断 AI"练习:一天不用任何 AI 工具
- 保持至少一项完全自主的技能:不依赖 AI 的能力
- 在关键决策中保留最终否决权:AI 建议,人类决定
- 记录 AI 决策 vs 人类决策的对比:建立自己的判断基准
结语
AI 不会抢夺你的权力。
它会让权力变得"没必要"。
当最优解摆在面前,"选择权"是尊严还是负担?
这个问题,没有标准答案。
但每个人都必须用自己的生活回答。