GenAI 技术(例如 AI 代理和 DeepSeek)的快速迭代导致企业抱有不切实际的期望。本研究借鉴了我们与中国 AI 领导者就常见的 GenAI 陷阱进行的讨论,并提供了最终有助于成功采用的建议。
主要发现
-
接受调查的首席信息官表示,生成式人工智能(GenAI)是 2025 年企业资金增加的主要技术领域。与 2024 年相比,2025 年中国企业对 GenAI 的投资平均将增加 40.3% 。
-
58%的受访中国企业正在探索GenAI。GenAI的用例范围广泛,涵盖编码、对话助手、图像和视频生成、摘要、工作流自动化、写作以及数据和分析。然而,74% 的企业将寻找具有重大商业价值的 GenAI 用例视为其最大的挑战。
-
中国企业在 GenAI 的应用方面雄心勃勃,但生产部署进展缓慢。截至 2024 年 6 月,中国仅有 8% 的企业在生产中部署了 GenAI,仅比 2023 年 4 月的 6% 增长了 2%。这远低于全球企业 20% 以上的采用率。
-
我们的调查显示,大多数中国企业缺乏人工智能治理政策,目前正在积极努力弥补这一差距。过去六个月出现的一些关键主题包括人工智能治理和负责任的人工智能。
建议
-
确定合适的用例并管理 GenAI 投资的现实期望,避免过分强调投资回报率。相反,应关注人才发展和研发等其他关键因素,以确保与业务战略相符的长期竞争优势。
-
追求小规模实施的同时认识到它们最终需要与战略指导相协调,包括增长目标、人工智能禁区和可接受的风险,以及最合适的人工智能技术和表现形式,而这些不仅限于 GenAI。
-
通过集成 AI 工程工具、应用程序、AI 就绪数据和基础设施,促进 AI 在现实环境中的部署。这种方法需要在成本和风险偏好与额外运营工作带来的潜在回报之间取得平衡。
-
通过记录与人工智能相关的决策背后的事实和理由,确保治理决策的透明度,特别是在幻觉、隐私、人权、知识产权(IP)和客户安全等敏感领域。
战略规划假设
-
到2027年,中国80%的企业将采用多模型GenAI策略,以满足多样化的模型能力、本地部署需求和成本效益。
-
到2027年,中国采用复合AI的企业将比全力采用GenAI模型的企业领先两年。
-
到2028年,中国企业对AI就绪数据(特别是非结构化数据)的投资将比2024年增加20倍。
概述
DeepSeek V3 和 DeepSeek R1 模型的最新创新由于其与 OpenAI 等现有领先者相比具有更好的性能和成本效益,在全球 GenAI 领域引起了新的兴奋。
事实上,Gartner 预计2024 年中国企业对 GenAI 相关问题的咨询量将比 2023 年增加 300% 。
确保高效、可信的人工智能交付有四个关键步骤(问题、实验、工程师和答案),如下所述(如图1 所示):
1. 问题:首先确定可以使用 AI 解决的业务问题。
2. 实验:根据已确定的业务问题,通过实验定义约束、选择表示形式并使用正确的数据和算法。
3. 工程师:部署AI模型,并将其与实际数据和业务系统进行操作和集成,以获得预期的业务结果。
4. 答案:制定决策来回答生产中业务方面提出的问题,持续监控系统并在必要时进行改进。
图 1:如何利用人工智能?
GenAI 引入了一种新的 AI 交付范式,从使用数据构建模型转变为使用预训练模型分析数据。没有深厚 AI 专业知识的团队可以使用他们喜欢的语言构建和使用 AI 应用程序。由于 GenAI 的复杂性和作为一种新实践的普及性,它对企业 AI 的采用进行了压力测试,如图 2 所示。
图 2:GenAI 对企业 AI 采用进行了压力测试
所有这些因素都为中国企业在实施和使用 GenAI 时带来了额外的挑战。这项研究重点介绍了与四种 GenAI 趋势相关的 12 个常见陷阱,这些陷阱是在过去一年中通过 1,000 多个中国客户咨询确定的。D&A 领导者可以使用本研究提供的建议来克服这些常见陷阱并推动成功采用 GenAI。
分析
在过去一年中,我们从客户咨询中发现了 12 个常见陷阱。这 12 个陷阱被归类为 AI 生命周期的四个关键步骤(问题、实验、工程师和答案),如下图 3 所示。
图 3:GenAI 正确实施需避免的 12 个陷阱
陷阱一:过于痴迷于短期价值
计算 GenAI 的投资回报率是我们客户最常问的问题之一。然而,我们观察到,我们的客户往往过于关注有形回报,这导致他们忽视了其战略的更广泛范围。因此,他们可能会错过其他机会,例如人才招聘和颠覆性创新。
DeepSeek R1 模型最近的成功表明,创新可以在不遵循传统商业模式的情况下实现,从而可以优先考虑研究而不是商业化。这种灵活性促进了探索和实验,使工程师能够追求创新想法而不受创收或客户需求的限制。虽然复制这一成功对于中国的传统企业来说可能具有挑战性,但它可以激励企业培养人才并专注于研究创新而不是严格的业务 KPI。
建议:
-
提供自上而下的战略指导,说明人工智能如何支持企业目标和公众/市场认知。
-
避免过度关注人工智能投资的投资回报率,而他们的策略是利用人工智能来推动颠覆性创新并加强人才获取。
-
根据您的 AI 战略,平衡人才建设、员工生产力、投资回报率和长期研发效益之间的 AI 投资。
确保您的 AI 用例优先级与业务战略一致。
陷阱二:错过问题的关键
了解 AI 可以为您的业务带来哪些好处可能并非易事。我们经常听到客户说他们渴望应对雄心勃勃的、登月式的挑战,但由于预算有限和缺乏内部 AI 能力而面临限制。
许多企业专注于观察竞争对手,并力图借鉴他们的最佳实践。虽然向他人学习是有益的,但大多数企业往往忽视了自身业务挑战的独特背景。这种疏忽可能会导致其投资价值被稀释。
例如,一家中国公司试图通过使用人工智能代码助手来提高开发效率,将开发流程提高了 10%。他们将该工具的使用范围扩大到更多开发人员,从而使代码产量提高了 10%。然而,这也需要大量测试人员和业务用户来完成无法自动化的任务。因此,由于真正的瓶颈没有得到妥善解决,开发过程变得更加缓慢。
建议:
-
首先关注您的业务挑战并对技术投资有合理的期望,然后开始您的 AI 用例。
-
借鉴他人成功的 GenAI 实施经验,同时为您的 AI 用例添加背景信息。
-
从整个业务价值链中识别出真正的业务瓶颈,避免你的AI价值分散。
根据合理的预期提出正确的问题。
陷阱三:优先考虑技术产出,而非业务成果
GenAI 技术创新在中国蓬勃发展,有超过 100 家供应商提供基础模型,包括开源和商业模型,可在本地和云端使用。低成本、开放重量的 DeepSeek R1 和 V3 模型带来的最新技术进步释放了新的潜力,特别是在科学研究、数学和编码领域,这些领域将受益于强化学习带来的探索、反思和规划技能。
然而,GenAI 技术本质上是概率性的,这对于试图在关键业务场景中实现稳健性和可靠性的企业提出了重大挑战。
在中国企业中,IT 往往是创新的先行者,引领转型。但如果创新完全由 IT 驱动,而没有业务的主导,则可能因权责不清而导致业务成果不明确、转型停滞。
例如,一家中国企业已从 IT 部门投入 2 亿元人民币购买 GPU 资源,以应对未来的需求,但发现并没有实际用例可采用。在花了六个多月的时间与不同的供应商进行各种概念验证 (POC) 后,该公司只取得了很小的进展。
建议:
-
组建一支融合技术与业务专长的团队,汇聚 IT 和业务专业人员。该团队将专注于探索 AI 用例并定义成功的业务指标。
-
通过评估用例的具体要求和约束来认识到何时 GenAI 可能不适合。
-
通过控制炒作和采用人工智能技术的通用分类法来防止“GenAI洗牌”,正如Gartner的人工智能技术框架中所概述的那样。
避免盲目追逐 GenAI 技术时尚。
陷阱四:坚持太久
有些客户在 POC 上投入了一年时间,但最终却对模型的功能感到失望。根据客户的经验,典型的 POC 不应超过三个月;否则,放弃努力可能是明智之举。
例如,一位中国客户抱怨他们在 GenAI 上投入了太多资金,却没有任何实质性的商业成果。该客户已经连续一年多为三个用例开发 POC,却没有任何退出标准。他们在年终审查时面临着高级管理团队对投资回报率的强烈反对。
建议:
-
建立创新预算池来支持实验,而不必过分关注投资回报率。但是,要确保每个用例都有明确定义的进入和退出标准。
-
避免在单个用例上停留太久,尤其是当最先进的模型都无法提供接近预期的结果时。
-
专注于通过收集和重复使用那些黄金测试用例来设置您自己的评估数据集,以进行所有用例评估。
-
对于需要灵活性和敏捷性的案例,请考虑使用云部署而不是本地解决方案。
通过快速失败变得敏捷且适应性强。
陷阱五:民主化导致混乱
ChatGPT 等 GenAI 技术让高级工具的使用变得大众化,让更多人能够编写文档、生成代码和进行数据分析。然而,这种可访问性也带来了挑战,例如存在泄露 IP 数据和产生幻觉信息的风险。
如果不正确理解人工智能的技术和必要的防护措施,那么推广和对待人工智能可能会带来重大的商业挑战。
例如,当一家中国公司将敏感的公司信息输入公共 ChatGPT 以获取有关主要竞争对手的市场情报时,它将面临巨大的数据泄露风险。
建议:
-
制定一个多渠道教育计划,通过人工智能素养计划在整个组织内传达分类法。
-
通过在整个企业内建立明确的 AI 使用政策,概述应该做什么和不应该做什么,同时鼓励采用 GenAI 解决方案,为员工设定合理的期望。
-
鼓励员工利用 GenAI 解决方案来增强日常工作并转变关键业务流程。同时,确保建立强大的 AI 治理流程来指导和监督这些举措。
为您的员工构建人工智能素养计划,同时鼓励他们进行尝试。
陷阱六:过于关注基础模型
许多 AI 企业将成功的 AI 项目等同于拥有强大的基础模型。虽然强大的基础模型可以为应用程序性能设定上限并释放新的可能性,但过分强调模型而忽视其他组件可能会导致“木桶效应”。这意味着其他领域(例如数据就绪性、基础设施能力、护栏和编排)的任何重大弱点都可能阻止您获得真正有意义的结果。
超过一半的中国客户正在完善或开发自己的模型。然而,建立定制模型仍然是一项艰巨的任务。
通过不断的预训练或微调来训练自己的模型可能达不到预期的效果,更不用说大量的 GPU 资源和成本。许多中国客户反映,他们在训练或微调模型时花费了过多的 GPU 资源,但与使用现有的商业模型相比,效果却非常有限。
企业往往过于注重基础模型,忽视传统AI方法、数据就绪性和其他AI工程实践的价值和有效性。
例如,在大型语言模型 (LLM) 解决方案广泛使用的检索增强生成 (RAG) 架构中,混合搜索方法(将 GenAI 支持的语义搜索与关键字搜索相结合)通常比单纯依赖 GenAI 技术提供更强大的性能。
建议:
-
通过系统视图关注业务价值,而不是过多关注模型。如果您的资源有限,请务实地将资源用于应用程序开发、数据、模型和基础设施。
-
专注于整理您的数据并使用上下文元数据来增强您的数据,将其定位为关键的区别因素,而不是仅仅依靠模型来区分。
-
在训练自己的模型之前,利用最先进的商业模型来测试用例的可行性。
-
通过探索新兴的 GenAI 框架(例如 RAG 或多智能体系统)采用系统方法,以有效地利用 AI 基础模型与其他传统 AI 技术结合。
-
通过基于既定设计模式集成多种技术来利用复合 AI。
在构建自己的模型之前,关注广泛的技术并利用最先进的模型。
陷阱七:低估人工智能工程在运营过程中的努力
GenAI 为人工智能工程带来了新的挑战和实践,迫使企业重新审视其数据、模型和开发流程。
实施 GenAI 需要付出巨大努力来解决极端情况和长尾问题。在许多情况下,在将 AI 有效地应用于特定用例之前,强大的业务流程仍然需要规则和其他程序逻辑的支持。
DeepSeek 最近取得的成功也证明了人工智能工程的价值。
开源并不意味着它是免费的;事实上,它最终可能会让你花费更多。
此外,网上还有许多开源解决方案和软件包,可提供一系列功能。虽然某些框架提供无代码/低代码选项并且看似易于使用,但它们可能缺乏在运营过程中关键业务场景所需的企业级功能。这需要进一步研究,以便有效地将这些开源组件集成到您的整体 AI 生态系统中。
例如,客户能够以不到10 万美元的成本为其知识库部署基于开源解决方案的开箱即用模型,实现超过 60% 的召回率。通过额外投资 20 万美元,他们通过增强分块和重新排序策略成功将召回率提高到 80%。然而,该企业发现,进一步将召回率提高到 90% 需要花费 100 万美元,预计再花 100 万美元可能只会带来 1% 的提升。
建议:
-
通过平衡解决方案稳健性带来的业务期望与人工智能工程相关成本来管理业务需求。
-
通过建立一个中央 AI 工程团队来扩展您的 AI 计划,该团队致力于确保整个企业 AI 采用的可重用性和治理。
-
通过实施 DataOps、ModelOps 和 DevOps 最佳实践来自动化管道并整合持续监控循环,从而提高 AI 开发的生产力。
-
使用模块化方法设计您的 AI 工程平台架构,以集成基础设施、模型管理、数据管理和应用程序开发中的 AI 组件。
陷阱八:合规阻碍一切
我们经常听到中国客户反映,一些成功的 POC 由于数据安全、隐私和道德等合规问题而无法继续实施。
虽然在大多数情况下情况确实如此,但进行必要的评估以确保这些观点符合公司的合规性要求至关重要。然而,这些流程通常对 AI 团队来说并不透明,导致团队感到沮丧。
人工智能委员会对于克服多学科挑战、推动价值增长和降低风险至关重要。然而,委员会的范围、持续时间和资源是针对具体情况的,取决于具体用例。对于一些公司来说,它是一种短期的权宜之计,而对于另一些公司来说,它代表着对其运营模式的长期改变。
建议:
-
设立一个人工智能委员会,综合考虑相互竞争的利益相关者的优先事项和受托义务,同时审查成本、风险和价值工程的用例。
-
首先,提名一位人工智能领导者来定义人工智能委员会的职权范围,使其与高管层和董事会的优先事项(包括企业业务战略)保持一致;然后根据您的资源承诺调整讨论主题和相应的可交付成果。
-
任命您的 AI 领导者担任 AI 委员会主席,与利益相关者合作,并通过从整个企业中找出经验丰富的业务领导者来选择 AI 委员会成员。。
应用中央 AI 治理来更好地进行风险评估和决策以实现运营。
陷阱九:对人工智能使用千篇一律的数据管理方法
大多数中国企业在运营阶段都实施传统的数据管理方法,以确保满足数据质量和治理要求。
传统的质量、适用数据、管理控制和领域专业知识标准可能不足以满足 AI 用例所适用的多种环境和阶段(例如操作化和生产)的需要。
企业必须解决 AI 就绪数据问题,以确保根据数据变化持续学习。
通过获取和利用正确的元数据,D&A 领导者可以将风险管理从技术团队转移到工具上,从而提高效率。这种转变包括一系列自动化活动,包括整理与用例相关的黄金文本记录、使用附加上下文标记内容以便在使用过程中更好地解释,以及根据上下文将数据与不同的模型相关联。
建议:
-
通过评估每个 AI 用例的数据背景和代表性变化,将数据的代表性和背景与 AI 利用率保持一致。访问、积累和利用现有系统中尽可能多的元数据,以比较多个场景中的数据重用情况。
-
通过增强元数据利用率来提高 AI 数据准备度。使用来自现有数据流程的元数据,持续监控数据资产的值漂移、重构和其他数据变化和模式。然后提醒 AI 解决方案经理。
-
实施具有精选黄金记录的评估框架,可以不断增强解决方案的功能。
-
通过生态系统协作构建强大且适应性强的数据基础设施,以维持持续的人工智能计划和技术动态。
确保您的数据能够适应您的特定用例并具有情境感知能力。
陷阱十:忽视一致的目标
从技术角度来看,该系统在 POC 和运营阶段可能表现良好。然而,当业务团队对用例缺乏透明度时,就会出现挑战,导致他们认为系统运行风险太大。如果您缺乏适当的指标来监控模型是否符合您的 AI 道德标准,情况会变得更糟。
例如,一位客户利用 GenAI 预测员工流失,并将晋升和加薪确定为与员工流失相关的最大风险因素。这一洞察让高层管理团队陷入两难境地,是否根据员工流失风险而不是绩效来增加薪水或晋升员工。结果,该用例被视为不成功,随后被取消。
此外,我们发现许多中国客户在人工智能用例方面缺乏完全透明度,并且在没有业务团队参与的情况下要求供应商对结果负责。
此外,可能存在涉及不同业务线和团队的角色和决策,需要协调和跟踪各种道德和决策。
建议:
-
与利益相关者就相关人工智能原则达成一致。确保治理决策的透明度,以表明对隐私、人权、知识产权或客户安全等敏感话题的考虑。记录有关人工智能决策的事实和理由。
-
企业应通过在整个AI生命周期中设定目标、流程和标准来实施AI治理运营模型,以管理AI解决方案的可信度。
-
利用模型护栏等工具来平衡 GenAI 解决方案的创造性和多功能性,并通过控制 GenAI 模型的输入和输出来降低其他风险。
通过扩大人工智能治理来增强信任,以确保透明度、可靠性和有效性。
陷阱十一:将人工智能计划视为一次性项目
人工智能项目计划通常无法考虑到开发过程中出现的不可预见的复杂性和资源需求,并且低估了数据准备成本、模型服务成本、测试和评估成本以及基础设施成本等运营阶段。
许多企业对 GenAI 项目所需的预算表示担忧,因为他们面临重大的预算问题,这是因为他们无法准确计算所有风险和工作量。
建议:
-
聘请一位全职、专职的产品经理,与业务和技术团队建立长期关系并充分了解产品背景,从而关注结果而不是产出。
-
使用敏捷方法应对快速变化。随着工作进展,要乐于发现新的要求和复杂情况,而不是试图预先详细说明一切。
将人工智能作为产品而不是项目来管理。
陷阱十二:放弃得太快
虽然将 AI 项目部署到生产中是一项重大挑战,但对于团队来说,在生产环境中维持对其的支持可能更具挑战性。
我们观察到,客户在生产中使用 AI 解决方案时通常会取得初步成功。然而,随着业务和数据不断变化,这些解决方案很快就会失败。
因此,持续监控、评估和可观察性对于客户建立和有效维护 GenAI 解决方案至关重要。
例如,在 POC 和运营阶段,一家企业最初成功满足了其业务需求。然而,进入生产阶段后,由于业务需求的变化和数据变化,它面临着巨大的挑战,这引发了对系统可靠性的担忧。企业没有放弃该项目,而是采用了额外的 LLMOps 功能,例如监控、评估、可观察性和基础。这些改进使他们能够更有效地处理业务需求的动态特性。
建议:
-
通过持续监控生产 AI 系统中的业务和数据漂移来调整解决方案。
-
通过首先推出包含基线和管道设置的最小可行产品 (MVP),然后逐步引入复杂性,不断提高 GenAI 性能。
-
通过建立管道并利用积累的黄金测试用例来创建自动化回归测试,以提高效率。
-
通过建立企业评估驱动的开发方法来衡量解决方案的有效性和可靠性,从而衡量解决方案的结果。