陈天桥借AI模型回应“2028智能危机”:危机根源在人类,而非技术觉醒
盛大集团创始人陈天桥近日通过内部AI模型MiroThinker,就《2028年全球智能危机》报告中提出的“白领大规模替代”与“资产缩水”风险发表观点。他指出,AI并非威胁人类的“反派”,而是加速人类现有选择模式的“放大器”,真正的危机源于人类对技术变革的被动适应,而非AI的自主觉醒。这一论断为职场焦虑中的打工人提供了全新视角,也引发了对技术伦理与人类价值的深度思考。
一、AI的本质:放大人类激励机制的“加速器”
1. 危机根源:技术加速下的“路径依赖”
陈天桥认为,AI不具备自主设定目标或规则的能力,其核心功能是将人类已有的激励机制和选择模式进行高效放大:
资本导向:若企业追求短期利润,AI会快速识别“降本增效”的路径(如自动化替代人力);
制度导向:若政策倾向于特定方向(如环保、公平),AI会优化资源分配以符合目标;
人类选择:当前职场危机本质是社会对“符号搬运”类工作的长期依赖,AI只是加速了这一模式的崩塌。
关键逻辑:
“AI不会创造危机,它只是让人类早已埋下的隐患更快显现。”
2. 对比视角:历史上的技术革命
工业革命:蒸汽机替代手工劳动,但催生了新的产业工人与工程师群体;
信息革命:计算机普及导致打字员等岗位消失,但创造了程序员、数据分析师等新职业;
智能革命:AI的冲击更广泛,但核心仍是人类对工作价值的重新定义,而非技术本身的善恶。
二、职场冲击:哪些工作将被替代?哪些能力不可替代?
1. 最易被替代:“符号搬运”类工作
MiroThinker模型指出,AI将优先接管可拆解、可复制、可批量训练的任务,包括:
白领基础岗:写材料、做报表、标准化分析(如财务审计、市场调研);
技术入门岗:基础代码编写、简单故障排查(如初级程序员、IT支持);
重复性决策:客服应答、物流调度(如电商客服、外卖路径规划)。
数据支撑:
麦肯锡预测,到2030年,全球30%的岗位活动可被自动化替代;
高盛研究显示,生成式AI可能使3亿个全职工作岗位面临风险。
2. 难以替代:“人类专属”的核心能力
陈天桥强调,AI无法复制以下能力,这些将成为未来职场的“硬通货”:
复杂问题重构:在模糊场景中定义问题边界(如战略规划、产品创新);
多方利益平衡:协调冲突目标并达成共识(如谈判、公共政策设计);
决策后果承担:为结果负责并承受道德压力(如医疗诊断、司法审判)。
案例:
医生:AI可辅助诊断,但最终治疗决策需考虑患者个体差异与社会伦理;
CEO:AI可分析数据,但企业战略需平衡股东、员工、社会等多方利益。
三、应对之道:从“防替代”到“借AI升维”
1. 中层管理者的转型策略
陈天桥建议,职场人应放弃“与AI竞争”的思维,转而利用AI解放自身,聚焦高阶决策:
工具化AI:将MiroThinker等模型用于机械劳动(如数据整理、报告生成),腾出时间思考战略;
技能升级:培养“AI协作能力”,如提问优化、结果验证、跨领域整合;
价值重构:从“执行者”转向“问题定义者”,例如通过AI发现市场空白,而非仅完成KPI。
2. 企业与社会的责任
企业层面:
重新设计岗位,将人类从重复劳动中解放,转向创新与关怀类工作;
建立“人机协作”流程,例如让AI处理客户初步咨询,人类介入复杂投诉。
政策层面:
加强AI伦理监管,避免技术滥用加剧社会不平等;
推动全民AI素养教育,将“与AI共事”纳入基础教育体系。
四、未来展望:AI与人类的“共生纪元”
陈天桥的回应揭示了一个关键趋势:AI不会取代人类,但会使用AI的人类将取代不会使用AI的人类。这场变革的本质不是“就业危机”,而是人类工作价值的重新分配——从符号搬运转向意义创造。
1. 乐观场景:效率提升与创造力解放
医疗:AI处理海量病例数据,医生专注个性化治疗方案;
教育:AI批改作业,教师设计跨学科项目制学习;
艺术:AI生成素材,艺术家专注情感表达与审美创新。
2. 风险预警:技术垄断与价值异化
数据霸权:若AI由少数企业控制,可能加剧社会分化;
意义丧失:过度依赖AI可能导致人类决策能力退化,陷入“技术依赖症”。
结语:危机中的机遇——做AI时代的“定义者”
《2028年全球智能危机》报告的警示并非预言,而是对人类适应力的考验。陈天桥通过MiroThinker模型传递的核心信息是:真正的危机不在于AI有多强大,而在于人类是否愿意跳出舒适区,重新定义自己的价值。
未来职场的主宰者,将是那些既能驾驭AI工具,又能坚守人类独特性(如同理心、创造力、道德判断)的“超级个体”。正如陈天桥所言:
“AI不是终点,而是人类进化到新阶段的起点。” 🚀🤖