GGpoker官网 - 领先的在线德州扑克平台 - GGpoker

在AI时代,领导者更需要一门“2000年前的能力”

2026-02-13 15:00

本文作者为IE大学教授Rubén Montoya González

当“如何更快”成为企业共识,“为什么要做”反而变得稀缺。

生成式人工智能的迅速普及,正在重塑企业决策方式。市场分析、战略规划、营销方案,几秒钟内即可生成;逻辑严密、数据翔实、表达流畅。围绕AI展开的“效率竞赛”,成为企业数字化转型的核心议题。

然而,在这场竞赛背后,一个更深层的风险正逐渐显现——

企业越来越擅长获得“正确答案”,却未必在提出“正确问题”。

 警惕“完美逻辑”的误导

当前围绕AI的讨论,多集中在“幻觉”“偏见”“事实错误”等问题。这些确实需要管理机制加以控制,但本质上属于技术与流程层面的挑战。

真正属于战略层面的风险在于:

当一个问题本身设定错误时,AI依然可以给出100%逻辑自洽、事实准确的答案。

人工智能本质上是概率模型,是优化工具。它可以在既定条件下计算最优路径,却无法判断前提是否合理,也无法理解决策背后的价值取向。

换言之,AI可以告诉企业“怎么做”,却无法回答“为什么做”。

在效率导向和KPI压力驱动下,企业决策流程中的“质疑”“争论”“犹豫”正在被视为低效的摩擦。但恰恰是这种摩擦,构成了战略判断的必要条件。

 当优化工具缺乏方向

设想这样一个场景:

企业要求AI分析物流与消费数据,寻找增长最快、成本最低的新市场。AI经过模型计算后得出结论——某地区具有明显优势,数据充分、逻辑清晰。

问题在于,决策团队是否同时考虑了当地文化环境、潜在政策风险、社会情绪变化等非结构化因素?

AI并没有犯错。它只是忠实执行了既定指令。

风险来自于——问题本身可能过于狭窄。

这意味着,单纯的数据核查与事实验证,并不足以保障战略安全。即使所有“砖块”都真实可靠,“蓝图”也可能是虚构的。

 AI时代,人文学科的现实价值

在“如何做”被高度技术化、标准化的背景下,企业真正稀缺的能力,正在转向“如何提出更好的问题”。

这一能力,恰恰源于人文学科的训练。

哲学训练强调对前提的质疑。

运营思维可能会问:“如何优化现有供应链?”

哲学思维则会追问:“我们真正解决的核心问题是什么?供应链是否是最佳路径?”

文学训练强调对人的理解。

数据问题是:“如何缩短客户通话时间?”

人文问题则是:“客户为何产生焦虑?他们在寻求什么情绪回应?”

历史训练提供长期视角。

季度计划可能逻辑完美,但历史经验能够帮助决策者识别周期性风险与二阶影响,避免将阶段性趋势误判为结构性变革。

在AI全面介入决策流程的背景下,人文学科所提供的“问题意识”,正成为差异化竞争的重要来源。

 重建“智识摩擦”

当企业面对AI生成的战略方案时,领导者需要的不只是核实数据,而是进行“逻辑压力测试”:

  • 如果将该方案推向极端,会出现什么荒谬后果?
  • 执行五年后,可能出现哪些非预期影响?
  • 为了让该方案成立,我们是否忽视了某些不愿面对的人性事实?

这种质询,并非拖慢效率,而是为决策增加必要的安全边界。

在所有企业都拥有相似算法与数据资源的情况下,竞争优势不再来自“更快的计算”,而来自“更深的判断”。

 关键不在模型,而在提问

人工智能改变了工具,却没有改变决策的本质。

真正的领导力,不是比机器更擅长计算,而是在机器给出答案之前,提出更具洞察力的问题。

当“如何做”成为标准化能力时,“为什么做”将成为新的分水岭。

在AI时代,或许最先进的能力,并不来自未来,而是来自两千年前人类对理性、怀疑与判断的思考传统。

这不仅是技术问题,更是认知能力的考验。

而提出更好问题的人,终将掌握方向。

本文英文原版发表于IE大学IE Insights学术期刊。

免责声明:本文观点仅代表作者本人,供参考、交流,不构成任何建议。