在AI从训练走向推理、从集中走向边缘的产业拐点上,Akamai正凭借其二十年全球分布式网络的积淀,与NVIDIA的顶级GPU算力融合,致力于构建一个前所未有的“全球分布式AI推理+云安全”双轮驱动平台。

一、战略起点:AI推理的十亿倍增长与分布式基础设施

NVIDIA CEO黄仁勋在GTC 2026大会上提出了一个惊人预测:“AI推理的规模,很快将达到训练负载的十亿倍。”IDC也在其报告中指出,到2027年,随着AI的重心从模型训练转向推理,为了提升AI应用的延迟表现和响应速度,80%的企业将部署分布式边缘基础设施。

这种从集中到分布式的范式迁移,对基础设施的全球覆盖与边缘纵深提出了前所未有的要求。这恰恰是Akamai二十多年来一直在构建的东西——一个覆盖130多个国家、700多个城市、1200多个运营商的全球分布式平台。

Akamai携手NVIDIA:从分布式云到AI推理网格,重新定义云安全与智算边界-RadeBit瑞安全

Akamai大中华区副总裁 张轲

Akamai大中华区副总裁张轲对此作了清晰的战略定位:“Akamai大中华区是Akamai在全球除北美以外最大的区域市场,拥有200多人的团队支持本地企业的国际化业务。Akamai希望借助过去20多年在全球积累的分布式计算网络,构建起一个全球最大的分布式云安全平台,同时进一步转型成为全球最大的分布式AI推理平台”

二、AI推理云:四大核心组件与AI网格架构

Akamai与NVIDIA合作的技术落点——Akamai AI推理云(Akamai Inference Cloud)的全球分布式云平台。基于NVIDIA RTX 6000 Pro Blackwell GPU打造的全球分布式云平台,已获得CNCF开源AI平台兼容性认证。目标是利用统一的云原生运营模式,在靠近用户侧运行AI推理。

Akamai携手NVIDIA:从分布式云到AI推理网格,重新定义云安全与智算边界-RadeBit瑞安全

Akamai推理云四大组成部分

AI推理云的四大组成部分:

  • 算力层,基于NVIDIA RTX 6000 Pro Blackwell系列GPU。这款芯片具备单卡4000 AI-TOPS算力和96GB ECC显存,足以承载当前主流大模型的推理任务。值得注意的是,GPU虚机的出方向流量成本仅为0.005美元/GB,整机性价比高于同类竞品机型一倍以上,这对成本敏感的出海企业来说是一个极具吸引力的数字。
  • AI网关,即Akamai AI Gateway。它实现了大模型请求的全球调度管理和安全保障,并通过语义缓存等智能技术帮助用户大幅节省Token使用成本。语义缓存的逻辑在于:如果两个用户向同一个大语言模型提出了语义相近的问题,系统可以智能判断并直接从边缘缓存中提取结果,无需重复调用昂贵的GPU进行推理。李文涛透露,这项技术可将时延降低超过90%,推理成本降低50%至80%。
  • Akamai函数即服务(Cloud Functions)。这是目前全球最快的函数即服务产品,具备0.5毫秒冷启动时间,比其他公有云竞品快1000倍,可以帮助客户实现覆盖全球边缘的无服务器计算能力。
  • Akamai分布式容器平台(MCS)。它基于Akamai的全球分布式算力平台实现容器化的边缘部署,距离全球95%的互联网用户仅约10毫秒时延、1个网络跳的距离,不仅最小化了推理时延,还为解决数据本地化、数据不能离境等合规性问题提供了基础设施支撑。

在四大组件之上,Akamai还发布了AI网格(AI Grid)架构——这是一个全新的分布式AI推理架构,参考了NVIDIA AI网格的最佳实践,能在毫秒级时间内将每一个AI请求路由至最合适的算力节点。AI网格具备三个核心能力:智能路由——感知AI工作负载并自动选择最优算力层级;分布式计算——构建从边缘到核心的多级算力架构;可靠性能表现——基于NVIDIA RTX GPU经过严苛基准测试验证。

AI网格架构的三大核心能力:智能路由实现最优算力调度,分布式计算覆盖边缘到核心,基于NVIDIA RTX GPU的可靠性能表现。Akamai与NVIDIA在GTC 2026大会上共同发布AI网格智能编排平台,这是全球首个规模化NVIDIA AI Grid实现

Akamai AI 推理云客户使用场景

Akamai携手NVIDIA:从分布式云到AI推理网格,重新定义云安全与智算边界-RadeBit瑞安全

Akamai亚太区云计算架构师总监 李文涛

技术架构的价值最终要通过业务落地来验证。Akamai亚太区云计算架构师总监李文涛,分享了多个已在运行中的AI推理云客户场景。

Akamai携手NVIDIA:从分布式云到AI推理网格,重新定义云安全与智算边界-RadeBit瑞安全

Akamai AI推理云客户使用场景

Akamai AI推理云已覆盖推荐引擎、8K视频工作流、实时视频智能、智能体助理、虚拟试衣间、智能玩具、自动驾驶等七大场景。

在游戏领域,一家韩国全球化游戏企业已在使用Akamai推理云支撑实时NPC对话。其大语言模型通过RTX 6000 Blackwell提供服务,游戏内部实时图像生成则使用RTX 4000 Ada GPU。通过基于工作负载的智能调度,该客户的GPU利用率大幅提升,投入产出比降低约30%。

在电商领域,AI驱动的虚拟试衣间正在成为热门应用。用户拍照或录像即可通过AI实现服装的远程虚拟试穿。在媒体和视频领域,8K视频工作流支持超高清画质、多语种自动翻译和字幕自动添加。在自动驾驶领域,Akamai的AI推理算力帮助客户进行异常检测、预训练、重训练以及个人身份信息的去标识化处理。

Akamai的AI推理云业务已经遍及了全球各个主要行业与地区,为客户提供了在全球最广泛分布的算力平台帮助用户交付高质量、超低延时的AI推理算力去满足AI时代最终用户AI推理的需求。

、安全纵深:AI防火墙、微分段与DPU级零信任

如果说AI推理云展示的是Akamai的“攻”——向AI算力市场进军的雄心,那么安全体系的升级则体现了Akamai的“守”——在AI浪潮中守住企业数字化转型的底线。

Akamai携手NVIDIA:从分布式云到AI推理网格,重新定义云安全与智算边界-RadeBit瑞安全

Akamai大中华区售前技术经理 马俊

Akamai大中华区售前技术经理马俊:“今天企业面对的安全挑战是全方位的,从抵御勒索软件、推进零信任架构到混合云微分段扩展、确保业务连续性并降低成本。Akamai利用AI技术贯穿到了整个安全战略始末。”

Akamai携手NVIDIA:从分布式云到AI推理网格,重新定义云安全与智算边界-RadeBit瑞安全

Akamai Guardicore安全挑战价值轮盘

Akamai Guardicore Segmentation应对的全方位安全挑战:从勒索软件防御、零信任建设到混合环境微分段、合规性控制,AI技术贯穿始末。

张轲表示:“从AI安全方面来讲,大致有两个大方向。一是AI的内容安全,确保AI在和用户交流过程中输出的内容有效且合规。二是基于AI本身的安全解决方案能力增强,AI不仅为安全厂商赋能提升防护能力,也可能让攻击者有了更便捷构建网络攻击的工具。Akamai在安全解决方案的非常早期就大量使用了AI技术提升有效性和快速响应。”

在微分段领域,Akamai的Guardicore产品利用AI实现了持续自动化发现,解决了传统微分段工具三大痛点:资产发现耗时过长、执行策略担心影响正常业务、策略随时间漂移难以维护。马俊从四个维度阐述了AI对微分段的赋能:利用AI理解网络流量和应用行为实现自动资产打标签;AI引导策略建设并在执行前提供模拟检验;通过AI语言交互能力加速运维;以及通过AI感知整体安全态势、模拟验证攻击路径的可达性。

更值得关注的是Akamai与NVIDIA在安全层面的硬件级合作。Akamai Guardicore与NVIDIA BlueField DPU实现了深度整合,将零信任从传统IT拓展到了运维技术OT和工业物联网ICS的硬件级别。马俊解释说:“这种架构不仅完全释放了主机CPU资源,更重要的是它极大提升了主机在受损时的弹性。上层操作系统如果被攻陷,底层DPU仍然能够积极落实安全策略。”

这意味着即使在AI边缘推理的GPU环境中,传统基于Agent的防护体系可能无法部署,Akamai与NVIDIA BlueField联合的DPU安全微分段策略仍然可以在硬件层面实时执行策略,第一时间发现并阻断横向移动。

在外部威胁防护方面,Akamai推出了AI驱动的WAF检测。依托平台上超大规模的全球实时流量,AI引擎持续分析并快速发现异常行为,生成高置信度的检测策略,实现自治和自适应保护。此外,全新的API安全态势中心让安全团队从每年处理成百上千条技术告警中解放出来,在统一仪表盘中追踪API安全违规。

Akamai携手NVIDIA:从分布式云到AI推理网格,重新定义云安全与智算边界-RadeBit瑞安全

AI驱动的WAF检测流程

针对AI时代的新兴威胁,Akamai的API安全产品还实现了MCP(模型上下文协议)服务器的自动发现。马俊指出:“MCP模型上下文协议是一个充满挑战的新领域,也是AI大模型广泛应用带来的新安全盲区。Akamai API安全能够自动从企业流量中实时发现隐藏的MCP服务器,精准控制AI应用部署期间暴露的攻击面,防止敏感数据被大模型意外泄露。”

Akamai携手NVIDIA:从分布式云到AI推理网格,重新定义云安全与智算边界-RadeBit瑞安全

API安全:MCP服务器自动发现

Akamai API安全可自动从运行时流量和源代码中检测MCP服务器端点,发现隐藏的AI基础设施,为安全团队提供全面的MCP部署视图

、展望:从物理世界到AI世界的入口

当AI从云端走向边缘,从虚拟走向物理世界,基础设施的意义正在被重新定义。Akamai与NVIDIA的合作,本质上是在回答一个关于AI时代基础设施的核心问题:当数十亿终端用户需要实时、低延迟、合规的AI服务时,算力应该以什么样的拓扑结构分布在这个星球上?

Akamai的答案是一张覆盖全球的AI网格——以NVIDIA的GPU为算力引擎,以Akamai二十年积淀的分布式网络为神经系统,以全栈AI安全为防护外壳。智能驾驶、机器人技术等与物理世界互动的AI创新,往往对推理时延、可靠性和安全性要求最高,这恰好是Akamai最强的部分。Akamai的愿景是成为物理世界和AI世界的入口。

记者Q&A

RadeBit瑞安全:在AI网格的架构当中,攻击者是否可以通过“劫持”或者是“窜改”边缘节点的模型文件来实施模型“投毒”、进而影响推理结果的准确性。对于实时性强、节点数量庞大的边缘推理场景,Akamai如何实现模型的完整性验证和可信执行,特别是在金融欺诈检测等敏感场景中如何防止边缘节点被攻破后成为攻击者横向移动的跳板?

马俊:Akamai AI防火墙其实就是在为应对这样的风险应运而生的创新产品,AI防火墙可以作为AI基础设施的一个栅栏、有效的保护AI输入和AI模型的输出。在保护输入的时候,它通过自身的检测能力、能够有效的检测类似于“提示词注入、越狱”及针对模型攻击的相关风险。在输出检测层面,它能够利用既定的规则去识别个人隐私或者模型出现的幻觉和错误,从而保护AI基础设施在云端、在边缘部署的AI基础设施的安全。同时,AI本身作为基础设施也是透过传统互联网、传统的接入设备提供服务的,因此Akamai主流的应用防火墙AI保护、AI安全相关的防护体系仍然对于这部分是有效的。我们看到对于AI的一些攻击很大一部分内容仍然是传统的“注入类、引用类”或者针对代码级别的攻击,这都仍然是Akamai整个安全防护体系重点防护的内容。

如果攻击者真正拿下某一个AI边缘资源,他接下来很有可能就会进行横向扩展。这也是我今天想要重点突出的一个演讲内容,就是我们的微分段方案能够有效的控制在勒索软件、攻击木马或者恶意程序进入到内网体系或者云端局部基础设施内,它要进行水平横移的时候会被微分段第一时间识别并拦截。有了AI基础设施之后,这种架构还会从顶层GPU或者可信计算的节点进行水平横移。在这个时候传统基于Agent的防护体系很有可能不奏效,因为我们很难在这样的环境内、特别是像OT或者ICS的环境内安装Agent。Akamai和英伟达BlueField联合的DPU安全微分段策略就可以有效的在这样的环境当中提供支持,无论企业在GPU的环境当中运行什么样的业务逻辑、这个主机如果被黑客攻击和攻陷了,我们仍然可以在DPU、在底层硬件的层面实时微分段策略,第一时间发现并阻断它进行水平横移的可能性、从而实现在新的基础设施环境内的安全体系建设。

RadeBit瑞安全:在AgenticAI场景中“推理”往往伴随着“工具调用、代码执行、访问业务系统”,AgenticAI这类非人类身份如何纳入零信任框架、Akamai如何在边缘推理时针对工具权限控制、运行时检测及对Prompt注入导致的越权调用进行有效防护?

马俊:Akamai很早就关注了AI方面的安全体系建设,并且充分利用AI的能力去赋能和驱动自身安全产品的演进。我们可以利用Akamai完整的安全产品体系去支持,可以利用AI防火墙有效的保护AI基础设施(特别是大模型的安全)、它可以防护提示词注入、越狱及针对模型投毒的一些动作。其次,如果说攻击对象是针对MCP实体进行的攻击,Akamai的API安全和Akamai应用及API保护器产品组合就可以有效的发现API端点、去发现MCP流量,同时针对MCP流量调用第一时间识别它的风险并且进行有效的阻断。另外,Akamai爬虫防护能力也可以有效的去应对解决在AI流量大量发生在互联网的这种新的安全威胁、特别是像很多AI模型为了训练、为了AI搜索,其实有很多爬虫流量也在互联网当中去被大量的应用。有很多黑客也会去借着这个趋势模拟或者假冒自己作为一个AI的爬虫或者AI的企业去发起攻击,在这里Akamai也可以利用自身的能力有效识别目前市面上超过42种已知的AI爬虫、从而有效的让企业去制定更完整和更准确的策略“是允许AI爬虫”或者说“去拒绝这些疑似爬虫”,都可以达到这样的一些结果。

RadeBit瑞安全:数据合规是中国“出海”企业面临的“高压线”,从欧洲的GDPR到沙特、印尼等地的数据本地化存储要求,法规日益繁杂且处罚严厉,很多中国企业不熟悉当地法律往往陷入业务全球化与数据属地化的两难境地。Akamai如何利用其边缘计算加上全球网络架构优势帮助中国企业解决这个难题?在帮助中国企业满足海外严苛的数据主权和隐私保护要求方面,Akamai提供了哪些具体合规工具或者是解决方案?

马俊:Akamai过去20余年的过往历史一直在致力于构建一个全球连接网络,最早的是通过CDN平台和安全产品去保护企业在全球各地以合规、合法的形式去在既满足数据安全的情况下保证合规性。有了云平台之后,Akamai整个平台进一步拓展到了更多的领域、特别是我们的平台在原来只是为用户提供音视频文件缓存到数据保护,拓展到了能够帮助客户提供核心的计算、存储和网络的“云能力”,进而提供了一个完整的端到端在线服务。Akamai平台从第一天开始就以保护数据隐私和合规作为基本要求,刚才文涛总也提供了我们在不同国家隐私合规方面的一些详细信息。Akamai利用这样的一个平台优势,实际上可以更好的为中国企业解决在“出海”到全球各地开展业务的时候提供保护屏障、并且能够提供对应的指导,Akamai的服务团队也可以跟客户一起合作为客户提供在具体的区域或者说国家对应的要求的时候提供对应的技术解决方案。

张轲:从“云计算”尤其是“AI”的角度。数据本地存储及合规相关的需求,在基础架构上Akamai是具备了为中国企业提供端到端的“出海”服务能力,包括:Akamai全球分布的25个核心计算节点。这25个核心的分布式计算节点也是分布在全球各个大州不同的国家,以适应很多国家和地区的数据本地化的要求,例如:欧盟的GDPR相关的要求。

在“AkamaiAI解决方案”的远景里面,AgenticAI时代里面也会涉及到大量AI应用的合规和本地化部署的问题。Akamai通过三层不同结构的AI推理云基础架构去实现这样的功能,对于一些核心的大规模推理计算场景通过Akamai核心的大型GPU计算节点帮助客户解决这方面的问题,但是对于需要离最终用户更近、需要更加本地化的AI推理及小的模型的一些推理场景,通过Akamai目前在全球分布的GPU计算平台帮助最终用户实现一些AI相关的推理业务本地化落地。再近一层是Akamai“无服务”的服务,也就是Akamai Serverless的这种解决方案,通过一些函数级别的服务和一些开发类的服务可以帮最终用户通过更加精确的定制化开发去实现他们ADI相关的一些业务合法合规的本地落地。