参加足够多的领导层会议后,你会听到不同口音讲述的同一个故事:“我们需要AI。”它出现在董事会报告、年度战略文件,以及那个神奇的曲棍球棒曲线图上,该图能将试点项目神奇地转化为利润。
我理解这一点,AI是真实的,其带来的好处也是真实的,但有一个问题正在悄然吞噬预算和信誉:大多数企业并没有自己认为的那样准备好迎接AI。
它们在能力上尚未做好准备。
当我谈到采用AI的隐性成本时,我指的不是模型定价或供应商费用,这些成本是可见的,也是可以协商的。真正的成本隐藏在复杂的中间环节:数据基础、集成工作、运营模式变革、治理、安全、合规,以及在演示热度消退后保持AI持续有用的持续努力。
这些工作并不光鲜亮丽,也从未出现在发布视频中,但它们最终决定了AI是成为持久的优势,还是仅仅是一次昂贵的尝试。
AI就绪是一种能力,而非一次采购
如果要用一句话来总结AI就绪,那就是:AI就绪是指你的组织能够反复将业务问题转化为定义明确的决策或工作流程,输入可靠的数据,并交付一个可以监控、审计和改进的解决方案。
这个定义很重要,因为许多声称已做好AI准备的说法实际上只是替代品:
• 我们有数据(数量而非质量)
• 我们在云端(基础设施而非运营模式)
• 我们进行了概念验证(演示而非生产)
• 我们聘请了数据科学家(角色而非系统)
真正的就绪包含四个必须同时具备的层面:
• 数据就绪:了解数据存储位置、数据所有者是谁,以及数据是否足够可靠以支持自动化决策。
• 技术就绪:具备以生产标准构建、部署、监控和保护AI系统的能力。
• 组织就绪:在真正的产品团队中明确所有权、技能和决策权。
• 风险与合规就绪:能够解释系统的功能、故障方式以及故障处理方式。
框架之所以重要,不是因为它们优雅,而是因为它们能强制要求明确性,它们能尽早揭示治理和责任问题,而这些问题正是AI就绪叙述中通常薄弱的地方。
三大误解助长过度自信
大多数过度自信源于三种误解,它们很常见,可以理解,但也代价高昂。
误解一:我们已经有数据了
有人说:“我们有多年的客户数据。”于是大家都点头,好像工作已经基本完成。
拥有数据并不等于拥有可用数据,AI系统会大规模放大质量问题。除非另有证明,否则“我们已经有数据了”通常意味着存在重复记录、定义不一致、字段缺失、敏感数据放置不当以及所有权不明确等问题。
隐性成本很快显现:清理、去重、模式对齐、标签化、管道构建、访问控制和反映现实而非乐观的评价数据集。许多AI项目在产出任何值得演示的成果之前都要花费数月时间,因为第一个真正的交付成果不是模型,而是不会在生产中崩溃的数据。
误解二:我们只需接入一个AI供应商
即使有精美的API或SaaS工具,真正的工作仍然存在:身份和访问控制、数据映射、工作流程集成、防护栏、监控和故障处理。
然后是更难的部分:让人们信任并使用这个系统,如果它增加了摩擦或产生了不可靠的输出,采用率会迅速下降,供应商风险也不会消失。价格会变化,使用量会激增,工作流程会与你不完全控制的工具紧密耦合。没有内部所有权,你不是在构建能力,而是在租赁能力。
误解三:我们的团队会解决的
强大的工程团队往往认为AI只是另一个功能,有时确实如此,但更多时候并非如此。
AI工作改变了人才组合和协调负担,它引入了新的需求:数据工程、评价设计、领域专业知识和AI特有的风险意识。即使是简单的生成功能也需要精心设计,以避免产生自信、看似合理但错误的输出——这是最危险的故障模式。
AI计划还同时涉及产品、工程、运营、法律和风险团队。如果这种跨职能需求没有得到规划,AI工作不仅会延误,还会破坏其周围的路线图。
采用AI的真正隐性成本
当AI努力受挫时,很少是因为想法不好或模型太弱,而是因为真正的成本出现得晚且集中爆发。
在严肃的AI项目中,这些成本通常分为五类:
1. 技术与基础设施成本
AI系统需要的不仅仅是计算能力:实验环境、部署管道、监控和安全控制,这些都要与自动化的风险相匹配。生成式AI在演示中看起来很轻量,但生产需求却很严格。提示词会变化,模型在负载下表现不同,故障需要警报和回滚路径。
2. 实验开销
大多数组织都针对执行进行了优化,而非学习。AI很快暴露了这一差距。数据假设会失败,评价标准会变化,每次迭代都会消耗时间和信誉,试点项目感觉成本低,因为它们隐藏了这些开销。生产则不然。
如果你想要一个明确的指标,从试点到生产的转化率往往低于领导者预期。根据Gartner相关报告,在某些环境中,只有大约一半的AI模型能够从试点进入生产。无论你的数字是40%还是70%,教训都是一样的:试点成本低,生产成本高。
3. 变革管理与工作流程重新设计
AI重塑了流程。每次部署都迫使人们就责任、人工干预和异常处理做出决策。如果这些问题没有得到解答,采用就会停滞,风险会悄然累积,这不是个别情况,而是一种模式。最近《福布斯》对麻省理工学院相关研究的讨论报道就强调了有多少企业生成式AI试点项目未能产生可衡量的影响,因为它们从未被整合到实际工作流程中。技术有效,但企业没有适应它。
4. 治理与合规
大规模应用时,AI是一个治理问题,自动化决策涉及敏感数据并影响结果。企业需要明确性、文档和审查路径。治理不是为了减缓团队速度,而是为了在无需不断救火的情况下实现负责任的自动化。
5. 持续维护
AI系统会退化,数据会变化,政策会改变,集成会中断。真正的成本不是构建第一个版本,而是承诺长期运营和改进系统。
这些成本加起来解释了为什么许多AI计划在承诺与影响之间停滞不前,它们失败不是因为缺乏雄心,而是因为高估了就绪程度。
我如何真正评估AI就绪情况
当我评估AI就绪情况时,我不会从工具或供应商开始,我会先试图尽早否定这个想法。
我会问四个问题,不允许模糊的回答。
1. 我们要改进什么决策或工作流程,以及如何知道它起作用了?如果答案是更好的洞察力或更高的效率,我们就停止。我想要当前的流程、基准、干预点和定义成功的指标。
2. 这取决于什么数据,谁拥有这些数据,以及它们目前有多糟糕?如果所有权不明确或质量未知,这不是一个AI问题,而是一个披着AI外衣的数据治理问题。
3. 在糟糕的一天,谁在发布后负责这个项目?每个AI系统都需要一个指定的所有者、预算权力和对结果(而非演示)负责的机制。没有所有权的AI不会大声失败,它只会变得无关紧要。
4. 这可能会如何失败,以及失败时我们该怎么办?如果答案是我们会监控它,我会进一步追问。监控什么?用什么阈值?由谁审查?
只有当这些问题得到回答后,我才会从数据、技术、组织和风险维度评估就绪情况。如果有任何一个方面是红色的,我们就会改变工作的性质。在扩大雄心之前,我们先修复基础。
更明智地采用AI的实用策略
为了避免隐性成本陷阱,我默认采用一套严格的策略:
• 从狭窄且可衡量的用例开始,选择具有可见价值且可承受失败的用例。
• 尽早投资于数据基础,不是在试点之后,而是在试点之前。
• 从第一天起就为赋能投资,采用是构建的一部分。
• 试点→验证→扩展,使用真实的工作流程、真实的数据和真实的限制。
• 从一开始就建立跨职能团队,早期对齐较慢,但后期较快。
如果你想要一个残酷的现实信号,看看波士顿咨询公司2025年报告PDF中强调的AI价值差距。像波士顿咨询公司这样的咨询公司报告称,尽管投入巨大,但只有一小部分公司能够大规模实现有意义的AI价值。差距不是因为AI不起作用,而是因为团队、所有权和运营模式的就绪程度远比大多数组织预期的要难。
明智地利用AI
AI仍然是组织拥有的最强大的杠杆工具之一,但优势不再属于最先采用它或谈论它最响亮的人,它属于那些能够负责任地、反复地、有纪律地运营AI的公司。
采用AI的真正隐性成本不是模型或供应商,而是成为能够真正使用AI的组织的成本:干净的数据、有弹性的管道、明确的所有权、强大的治理和使人们更有效的工作流程。
成功的组织将AI视为一种长期能力,它们在雄心之前投资于基础,它们只扩展那些经得起现实考验的项目,回报并非神奇,但会累积,在演示泛滥的环境中,这种运营优势是唯一持久的胜利。


