
本文作者为IE大学教授Rubén Montoya González
当“如何更快”成为企业共识,“为什么要做”反而变得稀缺。
生成式人工智能的迅速普及,正在重塑企业决策方式。市场分析、战略规划、营销方案,几秒钟内即可生成;逻辑严密、数据翔实、表达流畅。围绕AI展开的“效率竞赛”,成为企业数字化转型的核心议题。
然而,在这场竞赛背后,一个更深层的风险正逐渐显现——
企业越来越擅长获得“正确答案”,却未必在提出“正确问题”。
警惕“完美逻辑”的误导
当前围绕AI的讨论,多集中在“幻觉”“偏见”“事实错误”等问题。这些确实需要管理机制加以控制,但本质上属于技术与流程层面的挑战。
真正属于战略层面的风险在于:
当一个问题本身设定错误时,AI依然可以给出100%逻辑自洽、事实准确的答案。
人工智能本质上是概率模型,是优化工具。它可以在既定条件下计算最优路径,却无法判断前提是否合理,也无法理解决策背后的价值取向。
换言之,AI可以告诉企业“怎么做”,却无法回答“为什么做”。
在效率导向和KPI压力驱动下,企业决策流程中的“质疑”“争论”“犹豫”正在被视为低效的摩擦。但恰恰是这种摩擦,构成了战略判断的必要条件。
当优化工具缺乏方向
设想这样一个场景:
企业要求AI分析物流与消费数据,寻找增长最快、成本最低的新市场。AI经过模型计算后得出结论——某地区具有明显优势,数据充分、逻辑清晰。
问题在于,决策团队是否同时考虑了当地文化环境、潜在政策风险、社会情绪变化等非结构化因素?
AI并没有犯错。它只是忠实执行了既定指令。
风险来自于——问题本身可能过于狭窄。
这意味着,单纯的数据核查与事实验证,并不足以保障战略安全。即使所有“砖块”都真实可靠,“蓝图”也可能是虚构的。
AI时代,人文学科的现实价值
在“如何做”被高度技术化、标准化的背景下,企业真正稀缺的能力,正在转向“如何提出更好的问题”。
这一能力,恰恰源于人文学科的训练。
哲学训练强调对前提的质疑。
运营思维可能会问:“如何优化现有供应链?”
哲学思维则会追问:“我们真正解决的核心问题是什么?供应链是否是最佳路径?”
文学训练强调对人的理解。
数据问题是:“如何缩短客户通话时间?”
人文问题则是:“客户为何产生焦虑?他们在寻求什么情绪回应?”
历史训练提供长期视角。
季度计划可能逻辑完美,但历史经验能够帮助决策者识别周期性风险与二阶影响,避免将阶段性趋势误判为结构性变革。
在AI全面介入决策流程的背景下,人文学科所提供的“问题意识”,正成为差异化竞争的重要来源。
重建“智识摩擦”
当企业面对AI生成的战略方案时,领导者需要的不只是核实数据,而是进行“逻辑压力测试”:
这种质询,并非拖慢效率,而是为决策增加必要的安全边界。
在所有企业都拥有相似算法与数据资源的情况下,竞争优势不再来自“更快的计算”,而来自“更深的判断”。
关键不在模型,而在提问
人工智能改变了工具,却没有改变决策的本质。
真正的领导力,不是比机器更擅长计算,而是在机器给出答案之前,提出更具洞察力的问题。
当“如何做”成为标准化能力时,“为什么做”将成为新的分水岭。
在AI时代,或许最先进的能力,并不来自未来,而是来自两千年前人类对理性、怀疑与判断的思考传统。
这不仅是技术问题,更是认知能力的考验。
而提出更好问题的人,终将掌握方向。
本文英文原版发表于IE大学IE Insights学术期刊。
京公网安备 11010802028547号