Gartner预测2026年(二):驾驭中国的人工智能驱动变革

尽管监管方面仍有诸多限制,但得益于强劲的投资和企业对数字化转型的强烈需求,中国的人工智能行业仍在持续加速发展。首席信息官们可以利用这项研究来识别、采用和整合新兴的人工智能技术,从而在快速变化的市场中推动业务的可持续增长。

主要发现

  • 不断升级的地缘政治紧张局势促使中国加快国内半导体生产,优先发展可靠的人工智能芯片以支持其核心基础设施。

  • 中国、欧盟和美国的数据主权法律各不相同,这增加了合规风险和运营复杂性,迫使首席信息官们重新设计人工智能数据管理策略,以避免监管处罚和业务中断。

  • 大型语言模型在中国的广泛应用带来了新的安全漏洞,要求首席信息官们优先考虑全面的人工智能安全测试策略,以保护企业资产并保持合规性。

  • 人工智能的进步正通过智能体人工智能推动日常 IT运营的自动化,迫使首席信息官们主动重新定义 IT 角色,并优先提升团队技能,以释放新的价值来源。

建议

  • 通过系统地评估本地人工智能芯片供应商与关键基础设施要求之间的差距,并以此为基准对标,从而增强供应链的韧性,找出可靠性和性能方面的差距。

  • 整合跨区域数据治理,并选择具有强大数据本地化和机制的平台,以确保合规性和运营连续性。

  • 利用人工智能安全平台,保障第三方人工智能和定制人工智能应用程序的安全。

  • 通过在低风险、高容量的 IT 任务(例如系统监控)中试点应用智能体 AI 来提高运营效率,同时提升员工在 AI 监督和管理角色方面的技能。

战略规划假设

  • 到2030年,中国自主研发和生产的人工智能芯片将部署在80%的本土人工智能基础设施中。

  • 到 2028 年,采用来自至少三个不同地区的AI 模型所导致的数据主权、合规性和 AI 偏见问题将占AI数据管理工作负载的 50%。

  • 到 2029 年,70% 的中国企业将实施 AI 安全测试,以增强其现有的应用程序安全测试和渗透测试,而目前这一比例还不到 5%。

  • 到 2029 年,AI智能体将在中国大型企业中执行超过 40% 的 IT 运维任务,从而提高效率,而目前这一比例还不到 1%。

分析

需要知道什么

经济波动正在重新定义2026年的成功标准,超过一半的中国首席信息官及其团队预计在未来一到两年内,他们的目标成果将出现中等或重大变化。高层管理者的期望很高,强调数字化举措的内部成果,例如通过提升员工生产力来降低成本,同时通过改善客户和市民体验以及获取新客户来推动收入增长。在关键领域,实现这些提高的期望正在面临挑战,包括外部客户体验、收入提升以及应对各种中断。

核心挑战在于资源悖论。由于人工智能的兴起,人们对IT业务价值的期望大幅提升,而预算却并未相应增加。此外,IT人员的平均变化预计略有下降,这意味着首席信息官们需要在人员规模不变甚至缩减的情况下,满足不断增长的期望。

这种环境要求对高影响力项目进行积极的战略性投资,主要集中在AI和GenAI领域。即使在预测整体 IT 预算将会削减的技术高管中,对 GenAI 和 AI 的投入也在迅速增长。中国对 AI 和 GenAI 等新兴技术表现出强烈的意愿,这反映了该地区对创新和 IT 民主化的推动。这标志着一种范式转变,即领导者正在将其 AI 投资策略从"捍卫"基础性投资转向"扩展和颠覆"现有投资,以实现竞争优势。

与此同时,地缘政治因素正在引发采购观念的根本性转变。中国首席信息官们正积极重新评估对全球供应商的依赖,并转向区域性技术供应商,以增强供应链的韧性。在2026年Gartner首席信息官和技术高管调查中,绝大多数中国受访者计划在未来六个月内更加重视与本地区的技术供应商合作。这一转变与从"不考虑地域"的采购模式向"地域战略契合"的供应商选择模式的转变相一致。

在此背景下随着中国组织快速采用生成式人工智能和自动化,新的安全漏洞和劳动力转型前沿将会出现。以下预测探讨了四个关键主题:硬件主权、数据合规、人工智能安全和自主操作(见图1)。成功将取决于同时应对这些挑战。

图1:中国首席信息官及其团队的关键任务优先事项

战略规划假设1:到 2030 年,中国 80% 的本地人工智能基础设施将使用本地开发的人工智能芯片,而目前这一比例为 20%。

主要发现:

  • 美国政府对高性能人工智能加速器和先进半导体制造技术的出口限制,促进了中国自主研发人工智能芯片。作为回应,中国政府强制要求企业在本土人工智能基础设施投资方面实现自主化,从而为国内人工智能芯片供应商创造了一个庞大、受保护且在一定程度上有保障的市场。

  • 以海思半导体为代表的中国半导体公司已积累了丰富的AI芯片设计经验,足以与全球领先供应商相媲美。中国AI芯片公司采用针对AI工作负载(尤其是推理)优化的算法对齐硅架构(AASA)。阿里巴巴和百度等中国超大规模数据中心运营商,以及谷歌、AWS和Meta等全球同行,都在投资定制AI芯片的研发。他们与本地半导体制造服务商合作,生产这些芯片,用于本地AI基础设施。

  • 众多人工智能芯片厂商正在中国市场争夺市场份额和商机。这种竞争将加速系统级优化带来的新型人工智能解决方案的研发。性能提升将得益于中国包容性人工智能生态系统(包括基础模型、人工智能应用、开发平台和基础设施)的合作。中国丰富的人工智能人才储备为中国人工智能发展提供了至关重要的人力资源。

市场影响:

  • 中国自主研发的人工智能芯片非常适合开源GenAI模型和以推理为中心的AI基础设施,并可与本地开发的领域特定AI应用配合使用。中国AI应用案例的多样性和规模,使得本地开发的AI解决方案能够进行稳健且大规模的优化。

  • 新兴技术的应用,例如异构集成、液冷、全光连接和超级节点,弥补了单个AI芯片性能较低的不足。它们通过系统优化和效率提升来实现这一点,而这主要是由于缺乏先进的制造技术(低于5纳米)。

  • 由于无法获得最新的制造工艺,中国人工智能芯片在原始性能方面落后于其他国家,这影响了它们在全球市场的竞争力。然而,新兴国家在自主人工智能计划中对数据隐私和安全的需求,将为它们带来机遇。

建议:

  • 与中国芯片供应商和开源 GenAI 模型提供商合作,通过采用算法对齐硅架构 (AASA) 方法,评估和采用优化的本地 AI 解决方案,以提高开放 GenAI 模型的推理效率。

  • 通过量化产品性能、路线图相关性、供应链弹性、系统效率提升和财务能力,评估中国本土人工智能芯片供应商对您的人工智能基础设施平台的可行性。

  • 通过基于开源的 GenAI 基础模型微调自身模型,评估或基准测试中国人工智能解决方案,以满足特定工作负载所需的自主人工智能解决方案,从而减少对市场垄断者的依赖。

战略规划假设2:到 2028 年,采用来自至少三个地区的AI 模型所导致的数据主权、合规性和 AI 偏见问题将占AI数据管理工作负载的 50%。

主要发现:

  • 中国在人工智能的研发和部署方面取得了显著进展,包括大型语言模型(LLM)等生成式人工智能(GenAI)。这种日益增长的全球影响力促成了多极化的AI生态系统,其特点是LLM等技术的多元化发展和区域性竞争。

  • 多极化的人工智能生态系统加速了人工智能模型在全球不同地区的广泛应用。然而,各国在人工智能和数据监管要求方面的差异,例如数据存储位置、跨境数据传输许可、云服务提供商的可访问性以及LLM(生命周期管理)的可访问性,带来了数据主权、数据安全和人工智能偏见等方面的风险。而当前的地缘政治不确定性进一步加剧了这些担忧。

  • 大语言模型的商品化已将人工智能成功和合规的关键驱动因素从特定的大语言模型转移到组织独特的内部数据。组织如何管理和利用其数据,如今已成为实现人工智能成功和降低数据合规风险的另一个关键差异化因素。

市场影响:

  • 全球人工智能模型的应用并不受地域限制。美国领先的云服务提供商已将中国DeepSeek和Qwen等低级人工智能模型(LLM)集成到其人工智能开发平台中,使西方用户能够利用这些模型构建通用人工智能(GenAI)应用。同样,在中国的跨国企业也使用来自本地机构和服务提供商的西方人工智能模型。

  • 人工智能应用的质量和安全性直接受到数据质量的影响,包括:数据质量风险,例如数据不完整、数据失真、数据存在偏差或不一致以及数据漂移;数据安全风险,例如数据投毒、内部或外部数据滥用;以及数据治理风险,例如沟通不畅、文档不完善和元数据缺失。所有这些因素都会直接影响企业人工智能应用的幻象效应以及安全/合规性服务级别协议 (SLA),而多极化的人工智能会加剧这种影响。

  • 数据管理供应商正积极采用数据托管和数据虚拟化等技术来应对数据质量和合规性方面的挑战。然而,要实现全面的解决方案,应该依靠数据生态系统内数据、分析和人工智能供应商之间的协作,而不是由单一供应商依赖耗时耗力的定制化工作来解决数据问题。

建议:

  • 利用数据生态系统供应商提供的多种数据管理技术,简化流程,以了解区域法规,实现数据主权和人工智能计划合规性。

  • 通过实施将大语言模型与内部知识库解耦的数据架构,最大限度地减少人工智能项目中因技术债务而产生的数据管理工作量。这种方法能够实现新兴数据管理技术和人工智能模型的无缝集成。

  • 在扩展 GenAI 项目规模时,应减少劳动密集型的数据和分析 (D&A) 工作量。优先考虑那些拥有非结构化数据管理、嵌入和 AI 工程商业工具产品计划的供应商。

战略规划假设3:到 2029 年,70%的中国企业将实施 AI 安全测试,以增强其现有的应用程序安全测试和渗透测试,而目前这一比例还不到 5%。

主要发现:

  • GenAI系统引入了一些特定的漏洞,例如快速注入和输出被篡改。传统的应用程序安全测试、渗透测试或红队演练无法解决这些风险。

  • 中国本土LLM技术的快速普及促使各组织大规模地将业务系统与人工智能集成,并将快速上市作为首要任务。因此,人工智能安全测试必须高度自动化,并与现有的安全工具和工作流程无缝集成,以避免成为部署流程的瓶颈。

  • 随着企业试点应用人工智能代理实现业务流程自动化,它们面临着新的安全挑战,外部调用安全、身份和凭证安全、行为可控性以及规划完整性。这些测试的复杂性远高于通用人工智能,需要具备专业知识的测试人员,他们既要了解业务逻辑,又要理解代理的使用场景。测试自动化程度有限,测试用例难以在企业内部复用。

  • 为了响应GB/T 45654-2025等生成式人工智能服务基本安全要求等监管标准,中国的人工智能安全测试正从传统的网络安全测试发展为涵盖合规性违规、歧视和偏见等问题的"广义安全"测试。这些领域通常超出网络安全团队的职责范围,凸显了人工智能安全测试需要更高层次的协调和战略规划。

市场影响:

  • 面向生成式人工智能和大语言模型的人工智能安全测试工具、服务和平台市场将迎来快速增长。监管机构和企业高层管理人员将越来越期望通过规范化的人工智能安全测试来支持整体人工智能风险管理。这将推动对人工智能安全领域专业人才的需求,以及对自动化测试平台和集成安全解决方案的投资。

  • 低级威胁的概率性特性使得自动化内容安全测试变得复杂。因此,大多数供应商会将自动化工具与人工测试相结合,这是一种在测试过程中进行适应性调整和补充的方式。我们预计,随着时间的推移,这些供应商将扩展自动化测试用例库并利用人工智能辅助的对抗性模拟,但在未来几年内,完全自动化的人工智能安全测试仍然不太可能实现。人类的专业知识对于理解业务逻辑漏洞和模拟高级持续性威胁至关重要,因此混合方法将成为常态。

  • 目前中国的AI安全测试解决方案仍处于起步阶段,例如多模态测试(如文本到图像、视觉和语言、音频多模态)的不足,以及漏洞严重性评估缺乏统一标准。

  • 这种向"广泛安全"测试的转变,推动了对超越传统网络安全的多学科专业知识的需求。由于企业现在必须应对合规性、偏见和歧视风险,市场对人工智能系统集成安全测试解决方案的投资正在增加。

建议:

  • 建立涵盖人工智能整个生命周期的专用人工智能安全测试框架。实施人工智能威胁建模、内容合规性扫描、模型参数审计和对抗性测试。

  • 主动评估并升级现有应用安全测试工具,使其能够集成模型代码和人工智能组件扫描功能。在渗透测试中添加快速注入测试用例,并定期开展以人工智能为重点的红队演练。将这些控制措施静默且自动地嵌入到持续集成/持续交付 (CI/CD) 流水线和安全运维流程中。

  • 与领域专家共同制定以业务场景为导向的安全测试方法,以识别业务工作流程中的人工智能决策点。与业务部门共同设计测试用例,以解决逻辑偏差、跨系统依赖性故障和权限滥用等问题。

  • 与法律、合规、风险和业务部门的领导者合作,将人工智能安全测试范围扩展到监管要求、偏见和歧视防范以及可解释性方面。模拟真实世界的滥用场景(例如,监管审计、歧视投诉、不透明的决策争议),以验证测试覆盖范围和补救计划。

战略规划假设4:到 2029 年,AI智能体将在中国大型企业中执行 40% 以上的 IT 运营任务,从而提高效率,而目前这一比例还不到 1%。

主要发现:

  • 在中国大型企业中,由于系统、流程和跨部门挑战的复杂性,IT运维效率往往低下。许多IT团队正在探索利用AI智能体来解决技术问题并提高效率,首先是使用对话式人工智能与监控工具交互,以便对多个运维工具中的问题进行分类。

  • 为了最大限度地降低故障率并加快业务关键系统的恢复时间,IT 运维团队越来越多地转向人工智能解决方案,以克服以人为主导的运维模式的局限性。

  • 主要基础设施技术提供商正在将AI智能体集成到他们的工具中,以帮助 IT 团队简化运营。

  • 人工智能专业知识的匮乏以及员工对工作保障的担忧也减缓了人工智能在工业与运营部门的应用。

市场影响:

  • 由于人工智能存在产生幻觉的风险,且控制机制也在不断发展,因此完全自主的AI智能体目前还不能取代人类的监督,尤其是在关键决策方面。

  • 并非所有 IT 运维问题都适合由 AI 智能体解决,特别是当 AI 智能体不必要地将可以通过工作流自动化处理的简单任务复杂化,或者当问题过于复杂,以至于以目前的 AI 技术水平无法解决时。

  • IT运维中的AI智能体通过提供潜在的根本原因分析和事件解决知识,降低了初级员工的入门门槛,使一线团队能够通过自然语言交互轻松处理高级任务。这有助于更快地预测、分析和解决问题。

  • IT运维团队需要投入资源来管理AI智能体,建立安全保障措施,并设计人机交互框架。这种转变将催生新的角色和技能需求,例如人工智能工程师和人工智能架构师。

建议:

  • 首先针对简单、定义明确的任务,试点单智能体系统,以建立信心并验证功能,然后再扩展到复杂的多智能体架构。

  • 建立全面的治理机制,包括"人机交互"框架,并制定运行时防护措施来管理智能体自主性的固有风险,最终在长期内实现更多半自主和完全自主的能力。

  • 务实地进行投资,制定路线图,将明确的里程碑与可衡量的业务影响(例如提高效率和韧性)联系起来,以证明投资回报率。

相关推荐
NAGNIP11 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab12 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab12 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP16 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年16 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼16 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS16 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区18 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈18 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能
Ray Liang18 小时前
被低估的量化版模型,小身材也能干大事
人工智能·ai·ai助手·mindx