Akamai Inference Cloud (Akamai 推理云)

将训练好的模型转化为可在全球范围内安全运行的实时智能,赋能您的全球业务

率先启用强大的 NVIDIA™ RTX PRO 6000 Blackwell,释放 AI 推理新潜力。

推理即 AI 的未来

训练教会 AI 如何思考,而推理使其学以致用。它可以将模型转变为能够推理、回答问题并执行操作的实时应用程序。推理所带来的体验,正是 AI 价值的根本所在。

Akamai Inference Cloud 上的 AI 应用程序可以在更靠近用户的位置运行、即时作出响应并实现无界扩展。

没有推理,AI 不过是空有潜力

企业在 AI 方面的投入未能转化为相应的投资回报

不断攀升的云成本和 AI 落地速度缓慢让企业的收入、竞争能力和稳定性都面临风险。

AI 性能在规模化时遭遇瓶颈

延迟、GPU 资源有限和安全漏洞阻碍了 AI 的全球交付并推动成本上涨。

基础架构拖慢了企业的速度

复杂的基础架构和碎片化工具拖慢了开发、测试和部署的速度。

为什么选择 Akamai Inference Cloud?

Akamai 拥有专为 AI 时代打造并经过安全强化的全球分布式云。它将 GPU 驱动的计算资源部署在更靠近用户和数据的位置,从而加快了增长速度、增强了竞争能力并实现了成本控制。

在更靠近用户的位置,更快运行 AI

由 GPU 驱动的实时 AI 推理,专为实现全球覆盖和极致速度而设计。

在边缘保护 AI 工作负载的安全

从设计上来说,边缘防御措施可以抵御提示注入、模型滥用、内容抓取及恶意智能体。

随心构建,无忧扩展,告别供应商锁定

基于开放 API 进行构建与扩展,拥有完全的 Kubernetes 控制权、免费的出站流量,以及不会拖慢您发展速度的清晰定价。

工作原理

构建一个涵盖基础、模型、数据与执行层的统一 AI 云技术栈,并融合边缘流量管理和智能体生命周期控制功能。专用 GPU 与 Akamai 的边缘网络相结合,提供低延迟推理服务,并依托 Akamai 的自适应安全性和监测能力,在全球范围内实现卓越性能、强大防护与出色效率。

特点

  • 专用 GPU
  • 流量管理
  • 无服务器功能
  • 自适应 AI 安全性
  • 智能体与应用程序的构建和管理
  • 分布式数据
  • 统一的监测能力
  • 数据管道
  • 对象存储

应用场景

让 AI 在每一个价值触点发挥潜能。赋能更快的响应、更智能的自动化,并为所有应用场景带来高效的实时体验。

智能体 AI 和助手

通过边缘推理和自适应安全性,提供更快、更准确的响应。

客户体验和聊天机器人

在全球范围内提供流畅的 AI 对话体验,消除令用户沮丧的延迟。

个性化和推荐

利用您的 LLM 和自定义模型,赋能个性化的实时交互。

自动化和决策引擎

为高频、任务关键型推理提供支持,以保障金融科技、医疗保健和电子商务的实时运行。

资源

Akamai Inference Cloud 携手 NVIDIA,实现 AI 从核心到边缘的转型

在全球范围内提供可扩展、安全且低延迟的 AI 推理,为即将到来的智能体 AI 和实体 AI 浪潮提供助力。

抓住边缘

阅读相关内容,了解我们为何打造 Akamai Inference Cloud 及其如何服务于未来的智能体网络。

常见问题

Akamai Inference Cloud 专为 AI 推理而打造。与传统云服务提供商或 GPU 托管服务不同,Akamai 能够在边缘提供计算、网络和安全防护功能,帮助企业实现 AI 推理运营化并在全球范围内大规模部署智能、自主的智能体。该平台融合了先进的威胁防护、模型感知防御以及 AI 原生流量控制,以保护推理端点并保障整个 AI 交互层的安全。Akamai Inference Cloud 客户能够获得将 AI 投资转变为真实业务成果所需的性能、成本效益以及专用功能。

Akamai Inference Cloud 专为投资 AI 的企业而打造,旨在帮助他们获得竞争优势、推动运营转型并为未来做好准备。它面向的是负责大规模构建和部署 AI 赋能应用程序的团队,可满足其借助基础架构来为全球实时性能提供支持的需求。我们致力于为以下人员赋能:

  • MLOps:负责将整个机器学习生命周期自动化,以确保模型能够在生产环境中持续进行重新训练、部署和性能监控的工程师
  • AI 工程师:负责开发端到端智能体应用程序的软件工程师,他们通常会使用预训练模型,并致力于打通数据科学研究与生产软件之间的壁垒
  • 智能体系统架构师:传统系统架构师正演变为负责设计、开发和管理复杂、自主智能体系统的角色,这些系统能够独立推理、规划、执行操作并适应变化,以实现高层次的业务目标

推理在更靠近用户的位置而不是在遥远的数据中心执行。Akamai 的全球分布式边缘网络可以将流量路由至最适合的 GPU 区域,从而降低了延迟,并且能够为 AI 驱动的体验提供更快、更一致的响应。

Akamai Inference Cloud 将 AI 工厂引入边缘,实现数据和处理的去中心化,并利用 Akamai 的大规模分布式边缘位置将请求路由至最优模型。它将数据和推理部署在更靠近用户的位置,使客户的智能体能够即时适应用户需求,并实现实时交易优化。

Akamai 在边缘提供网络级防御、自适应威胁防护和 API 安全,并围绕您的数据和模型提供可配置的安全及访问控制。

您可以使用 Akamai 的预构建 Kubernetes 开发人员平台来部署和监控智能体 AI 应用程序。MLOps 工程师可以利用集成且预配置的 Kubernetes 软件堆栈,其中包括 vLLM、KServe、NVIDIA Dynamo、NVIDIA NeMo 和 NVIDIA NIM。

该平台将 NVIDIA RTX PRO 服务器(搭载 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU)、NVIDIA AI Enterprise 软件与 Akamai 的分布式云计算基础架构及在全球拥有超过 4,400 个入网点的全球边缘网络相结合。

请联系我们的团队,讨论您的应用场景。我们将协助您根据您的工作负载选择合适的 GPU 和部署配置,然后指导您完成设置,让您能够快速开始运行推理。

Se muestra a una persona con gafas negras y la cara iluminada por la luz de la pantalla de un ordenador

立即预约 AI 部署咨询服务

AI 正在从实验室走向实际应用,而企业现在所面临的压力在于如何提供更快、更智能且更安全的体验。无论您要优化推理、扩展模型还是降低延迟,我们都可以随时在边缘帮助您将 AI 潜力转化为实际价值。

  • 了解如何在更靠近用户的位置部署和扩展 AI 推理。
  • 了解边缘原生基础架构如何改进性能。
  • 探索如何在保持企业级安全性的同时降低成本。

预约 AI 部署咨询服务,解锁无限可能!

感谢您提交申请。

我们的 AI 顾问将尽快与您联系,为您安排沟通时间。