AI 边缘计算:决胜未来

核心摘要

  • Akamai Inference Cloud是一个全栈云平台,旨在助力各组织在边缘侧构建、保护并优化由人工智能驱动的应用程序。
  • 该平台专为支持智能体系统而设计,这些系统能够适应用户、与其他智能体交互并实时采取行动。
  • 其关键特性包括搭载NVIDIA Blackwell GPU、托管Kubernetes、向量数据库以及具备AI感知能力的安全防护。
  • 该平台主要赋能三类关键用户:机器学习运维工程师、AI工程师以及智能体系统架构师。
  • Akamai Inference Cloud为在任何地方部署先进AI系统提供了可靠、安全且可扩展的基础。

2017年,一篇研究论文悄然改变了技术发展的进程。《注意力就是一切》引入了Transformer架构,这是一种处理语言和数据的新型模型,此后迅速成为几乎每一项人工智能重大进步的基础。当时,这一突破主要局限于学术界和开发者圈子。

五年后,即2022年11月,OpenAI发布了ChatGPT。广大公众首次能够亲身体验到基于此架构所实现的系统。这让我们得以窥见一种全新的交互界面------不仅是与机器的交互,更是与知识本身的交互。

如今,在该产品发布仅三年之后,OpenAI报告其周活跃用户数已突破7亿。

世界经济论坛指出:人工智能正给劳动力市场带来双重颠覆。一方面,自动化导致现有岗位出现产能过剩。另一方面,对人工智能技能的需求增长速度,已超过教育和招聘体系的适应能力。旧的工作模式------以及我们为此培养人才的模式------正在迅速演变。

这标志着"开端"的结束。

回顾历史,展望未来

二十七年前,世界曾站在一个类似的转折点上。互联网正在迅猛扩张,而关于规模、可靠性和安全性的问题尚未解决。在此背景下,麻省理工学院的一群研究人员怀着清晰的使命创立了Akamai:解决"万维网等待"问题。

他们通过将计算、存储和网络资源更靠近创造和消费的节点来实现这一目标,这一模式后来被广泛效仿。

智能体网络的兴起让我们回到了原点,它带来了人工智能及其实现潜力所需的推理所特有的新规模与邻近性挑战。

我们今天宣布推出的Akamai Inference Cloud,建立在近三十年前我们开创的分布式架构工作基础之上,旨在将AI推理从核心数据中心扩展至边缘,再次消除瓶颈,突破集中式基础设施的限制。

智能体网络

新一代智能系统不再被动等待人类指令或输入;它们能够观察、推理,并代表以自然语言表达意图的用户采取行动。这些系统会主动发起任务,与其他系统协同合作,并在无需逐步指导的情况下交付成果------这就是智能体网络。

智能体网络正在重塑人机与数字服务的交互模式。体验正变得对话式、多模态与个性化。界面开始主动适应用户意图,而非反其道而行。当用户寻求推荐时,系统会根据其偏好、使用场景和设备类型,以语音摘要、可视化对比或文字分析等最契合的形式呈现结果,并自动选择最合适的表达风格与交互节奏。

智能体驱动交互亟需新型支撑体系

随着智能体驱动交互逐渐普及,企业需要全新的支撑方案:推理计算必须更贴近用户,响应时间需实现可预测的超低延迟,工具与内存资源需保证实时就绪。整个技术栈必须支撑代表用户与系统持续工作的智能体,而非仅处理孤立请求。

这场变革已悄然启动,但传统集中式云平台并未为此做好准备。企业不得不在原始基础设施与功能局限的解决方案间艰难抉择。当前市场真正缺失的,正是专为智能体AI构建的平台------它能有效降低系统复杂度、加速开发进程,并在全球范围实现智能行为的高效交付。

Akamai Inference Cloud 让未来成为可能

Akamai Inference Cloud使这一未来成为可能。其云与AI战略以满足智能体系统和应用程序的需求为核心,这些系统和应用能够适应用户、与其他智能体通信并实时行动。

其独特的分布式架构专为支持这些模式而设计,为复杂的推理工作负载带来所需的高性能计算、存储和编排能力,并将路由、控制和响应能力部署在更靠近用户的位置。

我们的客户正面临四项关键任务:

  1. 赋能AI应用
  2. 将AI作为新流量渠道进行管理
  3. 为企业工作负载配置AI智能体资源
  4. 实现员工负责任的AI消费

赋能AI应用

每家企业都将在其应用中嵌入智能功能。这代表了应用架构的下一个发展阶段------从响应式设计到多云架构,再到如今集成AI的实时系统。Akamai始终是值得信赖的基石,为每一次演进提供支持与安全保障。

将AI作为新流量渠道进行管理

用户正通过AI平台接触品牌,就如同他们曾经通过搜索、社交或移动平台一样。每个品牌、应用和API都需要界定其期望与非期望的AI交互,并智能地管理此类流量,从而将AI流量从风险转化为机遇。

为企业工作负载配置AI智能体资源

我们的客户正运用AI智能体来运营部分业务------从基础设施管理到数据分析。智能体需要能够访问与内外系统关联的一流资源,但必须配备适当的保障措施------信任、身份识别、可观测性与安全性------以便企业能够自信且高效地扩展其AI运营环境。

实现员工负责任的AI消费

各家企业的员工都在使用AI服务------Copilot、Cursor、ChatGPT、Claude等。企业必须对这类使用的合规性、成本及数据保护进行有效管理。

Akamai Inference Cloud 是实现推理规模化的关键

什么是 Akamai Inference Cloud?

Akamai Inference Cloud 是一个全栈云平台,旨在构建、保护并优化由AI驱动的下一代智能应用。它提供与实时推理、智能体系统及更贴近用户的智能的独特需求相一致的计算、存储、网络、编排、安全性和开发者工具。(见下表)

构建 保护 优化
面临的问题 - API托管成本高昂 - 集中式推理速度慢 - 自行托管模型困难 - AI机器人抓取内容 - AI端点泄露敏感数据 - AI端点被滥用 - 威胁行为者使用DDoS和资源耗尽攻击 - 传统网络对AI搜索不可见 - AI界面响应缓慢 - 成本可能激增 - 智能体需要发现、认证、身份、信任等框架
解决方案 分布式智能基础设施与开发者平台 AI感知的机器人管理和API安全 AI连接网格 (服务于人类和智能体)
相关产品 - NVIDIA Blackwell GPU - NVIDIA BlueField DPU - 托管K8s - K8s开发者平台 - 向量数据库 - 对象/块存储 - 备份与快照 - VPC - 函数计算 - Akamai Guardicore微隔离 - Akamai应用与 API 保护器 - Akamai API安全 - Akamai人工智能防火墙 - Akamai爬虫程序和滥用防范 - AEO/GEO - 语义缓存 - LLM速率限制与配额 - MCP服务器 - CDN加速 - 函数计算 - 可观测性

为谁而建

Akamai Inference Cloud 是一个模块化平台,能够满足客户不同阶段的需求。无论您是在应用中调用来自OpenAI和Gemini的托管API端点,还是围绕您自己微调或提炼的模型构建智能体工作流,Akamai Inference Cloud 都能让您在边缘进行构建、保护和优化。

具体而言,我们主要赋能三类用户:

  1. 机器学习运维工程师:自动化整个机器学习生命周期,确保模型在生产中持续重新训练、部署和性能监控。
  2. AI工程师:构建端到端智能体应用的数据科学家或软件工程师,通常使用预训练模型,弥合数据科学研究与生产软件之间的差距。
  3. 智能体系统架构师:从传统系统架构师演进而来,负责设计、构建和管理复杂的自主智能体系统,这些系统能够独立推理、规划、行动和适应,以实现高层次业务目标。

通过Akamai Inference Cloud,我们并非将用户锁定在特定范式或解决方案中,而是为客户提供灵活性,让他们能够根据自身偏好租用基础设施、在无服务器平台上开发并无缝组合复杂系统。

将NVIDIA AI技术栈部署在决策发生之地

2025年10月28日,我们宣布推出Akamai Inference Cloud,我们的目标是将在个性化体验、实时决策和智能体所需的智能的、具备行为能力的AI推理带到边缘。

客户现在能够使用最新一代的NVIDIA Blackwell GPU,并配合NVIDIA BlueField网络技术;跨越GDDR7、DRAM和NVMe的分层内存;高性能、可扩展的块和对象存储;托管向量数据库;以及虚拟私有云网络。

MLOps工程师可以按小时租用单个GPU,也可以构建包含多达8个NVIDIA RTX PRO™ 6000 Blackwell服务器版GPU、NVIDIA BlueField-3® DPU、128个vCPU、1,472 GB DRAM和8,192 GB NVMe的高性能推理集群。(图1)

图1: Akamai Cloud Manager 中服务器规格型号的截图

NVIDIA Blackwell GPU提供卓越的性能。Akamai Inference Cloud 针对首次令牌时间 和每秒令牌数 进行了优化。结合Akamai分布式边缘基础设施,Akamai Inference Cloud 能够降低实时和交互式智能应用的延迟。

我们即将发布的基准测试分析将详细阐述其性能表现。

通过App Platform部署和监控智能体应用

为了进一步帮助平台工程师,我们不止于为其提供基础设施。平台工程师可以使用我们预先构建的云原生平台轻松部署和监控智能体应用,该平台简化了大规模部署大语言模型、智能体和知识库的流程。

该平台高度可定制,同时又具备预设最佳实践------它加速部署,减少运维开销,并将向量数据库、LLM框架和OpenAI兼容API等AI就绪组件预集成到一个统一的自服务门户中。App Platform经过优化,可在Akamai托管的Kubernetes引擎上运行,并且可移植到任何符合标准的Kubernetes集群。

用于LKE的App Platform集成了30多种受信任的云原生计算基金会开源工具,包括用于在生产中服务和扩展机器学习模型的Kubernetes原生框架KServe,以及用于在Kubernetes上构建、部署和管理ML工作流的平台Kubeflow Pipelines。

App Platform同时提供了Kubernetes框架和AI组件,供工程师构建自己的AI平台。这有助于避免在构建和维护自有的基于Kubernetes的平台或定制技术栈时需要进行大量集成的DIY方法。(图2)

图 2:Akamai 应用平台界面截图,其中展示了 AI 应用

专为NVIDIA AI Enterprise集成而设计

NVIDIA AI Enterprise 是一个软件平台,旨在简化从AI开发到生产的旅程。此云原生套件加速并简化了您构建、部署和扩展AI应用的方式。通过使用NVIDIA推理微服务(NIM)和神经模块(NeMo)微服务等强大工具,它有助于您降低基础设施成本并显著缩短上市时间。(图3)

图 3:NVIDIA NIM 界面截图

Akamai Inference Cloud 正在演进,以原生方式容纳整个NVIDIA AI Enterprise软件套件。该平台为各种规模的组织在任何地方------云端、数据中心或边缘------部署先进的AI系统提供了可靠、安全且可扩展的基础,这一切都由广泛的合作伙伴生态系统提供支持。

了解更多

Akamai Inference Cloud 正在快速发展,计划在2026年前推出多项新产品。请关注Akamai博客或访问我们的网站,以获取关于Akamai Inference Cloud的更多信息。

相关推荐
flex88882 小时前
输入一个故事主题,使用大语言模型生成故事视频【视频中包含大模型生成的图片、故事内容,以及音频和字幕信息】
人工智能·语言模型·自然语言处理
TTGGGFF2 小时前
人工智能:大语言模型或为死胡同?拆解AI发展的底层逻辑、争议与未来方向
大数据·人工智能·语言模型
张艾拉 Fun AI Everyday2 小时前
从 ChatGPT 到 OpenEvidence:AI 医疗的正确打开方式
人工智能·chatgpt
mwq301233 小时前
位置编码的技术演进线路:从绝对到相对,再到几何一致性
人工智能
mwq301233 小时前
外推性-位置编码的阿喀琉斯之踵
人工智能
DP+GISer3 小时前
基于站点数据进行遥感机器学习参数反演-以XGBOOST反演LST为例(附带数据与代码)试读
人工智能·python·机器学习·遥感与机器学习
boonya3 小时前
Langchain 和LangGraph 为何是AI智能体开发的核心技术
人工智能·langchain
元宇宙时间3 小时前
DID联盟:Web3数字主权基础设施的战略构建
人工智能·web3·区块链
点云SLAM3 小时前
弱纹理图像特征匹配算法推荐汇总
人工智能·深度学习·算法·计算机视觉·机器人·slam·弱纹理图像特征匹配