IA: Tout ce dont vous avez besoin se trouve en bordure de l'Internet

Jon Alexandar

Oct 28, 2025

Jon Alexander

Jon Alexandar

écrit par

Jon Alexander

Jon Alexander est VP of Product management et est responsable de la gamme de produits Edge Delivery d'Akamai, notamment des produits de réseau de diffusion de contenu (CDN) et de services d'origine.

Partager

Synthèse

  • Akamai Inference Cloud est une plateforme cloud complète qui permet aux entreprises de créer, de protéger et d'optimiser des applications basées sur l'IA en bordure de l'Internet.

  • La plateforme est conçue pour prendre en charge les systèmes agentiques qui s'adaptent aux utilisateurs, communiquent avec d'autres agents et agissent en temps réel.

  • Principales caractéristiques : GPU NVIDIA Blackwell, solution Kubernetes gérée, bases de données vectorielles et sécurité adaptée à l'IA.

  • La plateforme permet à trois utilisateurs spécifiques d'agir : les ingénieurs des opérations d'apprentissage automatique, les ingénieurs d'IA et les architectes de systèmes agentiques.

  • Akamai Inference Cloud fournit une base fiable, sécurisée et évolutive pour déployer des systèmes d'IA avancés, partout dans le monde.

En 2017, un article de recherche a discrètement changé le cours du monde de la technologie. « Attention Is All You Need » présente l'architecture « Transformer », un nouveau type de modèle de traitement du langage et des données qui sous-tendrait bientôt presque tous les progrès majeurs de l'intelligence artificielle (IA). À l'époque, cette découverte touchait principalement les milieux universitaires et les développeurs.

Cinq ans plus tard, en novembre 2022, OpenAI a lancé ChatGPT. Pour la première fois, le grand public a pu interagir directement avec un système basé sur ce que cette architecture avait rendu possible. Ce système a révélé un nouveau type d'interface, qui ne communiquait pas uniquement avec une machine, mais avec la connaissance elle-même. 

Aujourd'hui, seulement trois ans après son lancement, OpenAI compte plus de 700 millions d'utilisateurs actifs par semaine

Le World Economic Forum a déclaré que l'IA déstabilise le monde de l'emploi de deux façons. D'une part, l'automatisation entraîne une surcapacité dans les rôles établis. D'autre part, l'enseignement et le recrutement peinent à suivre la demande croissante de main-d'œuvre pour la maîtrise de l'IA. Les anciens modèles de travail, et de préparation au monde du travail, évoluent rapidement.

C'est la fin du début.

Regarder en arrière pour aller de l'avant

Il y a 27 ans, le monde se trouvait à un point d'inflexion similaire. Internet se développait rapidement alors que les questions d'évolutivité, de fiabilité et de sécurité n'étaient pas résolues. Dans ce contexte, un groupe de chercheurs du MIT a fondé Akamai dans un but précis : résoudre le « World Wide Wait », expression qui désignait l'attente due à la lenteur du chargement des pages à l'époque. 

Pour ce faire, ils ont rapproché le traitement, le stockage et la mise en réseau des points de création et de consommation dans un modèle qui est depuis fréquemment imité.

L'essor du Web agentique nous ramène en arrière, en réintroduisant de nouveaux défis liés à l'évolutivité et à la proximité spécifiques à l'IA et à l'inférence nécessaire pour exploiter tout son potentiel. 

Akamai Inference Cloud, dont nous avons annoncé le lancement récemment, s'appuie sur le projet de création d'une architecture distribuée que nous avons initié il y a près de trente ans. Son objectif est d'étendre l'inférence de l'IA des centres de données centraux à la bordure de l'Internet et, une fois de plus, de supprimer les goulots d'étranglement et repousser les limites de l'infrastructure centralisée.

Le Web agentique

Cette nouvelle génération de systèmes intelligents n'attend plus les commandes ou les entrées humaines. Ils observent, raisonnent et agissent au nom des utilisateurs qui expriment leurs intentions en langage naturel. Ces systèmes prennent des initiatives, se coordonnent avec d'autres systèmes et produisent des résultats sans instructions détaillées. C'est le Web agentique.

Le Web agentique change la façon dont les personnes et les machines interagissent avec les services digitaux. Il offre des expériences conversationnelles, multimodales et personnalisées. Les interfaces s'adaptent à l'intention de l'utilisateur, et non l'inverse. Un utilisateur peut demander une recommandation et la recevoir sous la forme d'un résumé commenté, d'une comparaison visuelle ou d'une analyse écrite, en fonction de ses préférences, du contexte et de son terminal. Le système choisit le format et la tonalité qui conviennent le mieux.

Les interactions basées sur des agents exigent de nouvelles approches

À mesure que les interactions basées sur des agents se généralisent, les entreprises doivent repenser leur manière de les prendre en charge. L'inférence doit se rapprocher des utilisateurs. Les temps de réponse doivent être courts et prévisibles. Les outils et la mémoire doivent être disponibles en temps réel. Les agents travaillent désormais pour le compte des utilisateurs et des systèmes, ils ne traitent plus seulement des requêtes ponctuelles. La pile tout entière doit donc pouvoir les soutenir.

Ce changement a déjà commencé, mais les plateformes cloud centralisées actuelles ne sont pas conçues pour y faire face. Les entreprises sont contraintes de choisir entre une infrastructure brute ou des solutions limitées. Ce qui leur manque, c'est une plateforme spécialement conçue pour l'IA agentique, qui réduit la complexité, stimule le développement et assure un comportement intelligent à l'échelle mondiale.

Akamai Inference Cloud : une solution tournée vers l'avenir

Akamai Inference Cloud rend cet avenir possible. Son approche du cloud et de l'IA se concentre sur les besoins des systèmes et applications agentiques qui s'adaptent aux utilisateurs, communiquent avec d'autres agents et agissent en temps réel. 

Son architecture distribuée unique est spécialement conçue pour prendre en charge ces schémas. Elle apporte les performances de calcul, de stockage et d'orchestration nécessaires aux charges de travail d'inférence complexes, et applique l'acheminement, le contrôle et la réactivité au plus près de l'utilisateur.  

Nos clients sont confrontés à quatre missions stratégiques :

  1. Permettre les applications basées sur l'IA

  2. Gérer l'IA en tant que nouveau canal de trafic

  3. Faire appel à des agents d'IA pour les charges de travail d'entreprise

  4. Assurer une utilisation responsable de l'IA par les employés

Permettre les applications basées sur l'IA

Toutes les entreprises finiront par intégrer l'intelligence dans leurs applications. Il s'agit de la prochaine étape de l'architecture applicative, de la conception réactive au multicloud, et désormais aux systèmes en temps réel dotés de l'IA. Akamai reste un pilier fiable qui propulse et sécurise chaque évolution.

Gérer l'IA en tant que nouveau canal de trafic

Les utilisateurs prennent contact avec des marques par le biais de plateformes d'IA, comme ils le faisaient autrefois par le biais de la recherche, des réseaux sociaux ou de leurs appareils mobiles. Chaque marque, application et API devra définir les interactions avec l'IA qu'elle souhaite encourager ou éviter, et gérer ce trafic intelligemment pour transformer les risques liés à l'IA en opportunités.

Faire appel à des agents d'IA pour les charges de travail d'entreprise

Nos clients utilisent des agents d'IA pour prendre en main certaines parties de leur activité, de la gestion de l'infrastructure à l'analyse des données. Les agents ont besoin d'accéder à des ressources de première classe associées aux systèmes internes et externes, mais dotées de protections adéquates (confiance, identité, observabilité et sécurité) afin que les entreprises puissent étendre les capacités de leurs environnements gérés par l'IA de manière confiante et efficace.

Assurer une utilisation responsable de l'IA par les employés

Les employés de toutes les entreprises utilisent des services d'IA : Copilot, Cursor, ChatGPT, Claude, et bien d'autres. Les entreprises doivent donc veiller à ce qu'ils soient utilisés de façon responsable, tout en maîtrisant les coûts et en protégeant les données.

Akamai Inference Cloud est le meilleur moyen de faire évoluer l'inférence.

Qu'est-ce qu'Akamai Inference Cloud ?

Akamai Inference Cloud est une plateforme cloud complète et conçue pour créer, protéger et optimiser la prochaine génération d'applications intelligentes basées sur l'IA. Elle offre des outils de calcul, de stockage, de mise en réseau, d'orchestration, de sécurité et de développement alignés sur les exigences uniques de l'inférence en temps réel, des systèmes agentiques et de l'intelligence qui opèrent au plus près de l'utilisateur (voir le tableau).

 

 

Création

Protection

Optimisation

Problèmes

  • Héberger des API coûte cher

  • L'inférence centralisée est lente

  • L'hébergement d'un modèle personnalisé est compliqué

     

     

     

  • Les bots pilotés par l'IA extraient du contenu

  • Les points de terminaison d'IA divulguent des données sensibles

  • Les points de terminaison d'IA sont sujets aux abus

  • Les acteurs malveillants utilisent des attaques DDoS et par épuisement des ressources

  • Le Web traditionnel n'est pas détectable par les systèmes de recherche basés sur l'IA

  • Les interfaces d'IA sont lentes

  • Les coûts peuvent vite monter d'un cran

  • Les agents ont besoin d'un cadre pour la découverte, l'authentification, l'identité, la gestion de la confiance, etc.

     

Solution(s)

Infrastructure intelligente distribuée avec une plateforme de développement 

Sécurité des API et gestion des bots adaptée à l'IA (protections des applications, des API et de l'IA, travaillant de concert avec la gestion des bots adaptée à l'IA)

Maillage de connectivité IA pour les humains et les agents 

Produits

  • GPU NVIDIA Blackwell

  • DPU NVIDIA Bluefield

  • Kubernetes géré

  • Plateforme de développement Kubernetes 

  • Base de données vectorielle

  • Stockage en mode objet/bloc

  • Sauvegardes et snapshots

  • VPC (Cloud privé virtuel)

  • Fonctions

 

  • AEO/GEO

  • Mise en cache sémantique

  • Limites et quotas de débit LLM

  • Serveur MCP

  • Accélération CDN

  • Fonctions

  • Observabilité

     

Akamai Inference Cloud est une plateforme cloud complète et conçue pour créer, protéger et optimiser la prochaine génération d'applications intelligentes basées sur l'IA

À qui nos produits sont-ils destinés ?

Akamai Inference Cloud est une plateforme modulaire qui s'adapte aux besoins et aux environnements des clients. Que vous utilisiez des points de terminaison d'API hébergés d'OpenAI et de Gemini dans vos applications ou que vous souhaitiez créer un flux de travail agentique autour de vos propres modèles précis et distillés, Akamai Inference Cloud vous permet de créer, protéger et optimiser en bordure de l'Internet. 

Plus précisément, la plateforme s'adresse à trois types d'utilisateur spécifiques :

  1. les ingénieurs des opérations d'apprentissage automatique (MLOps) : les ingénieurs qui automatisent l'ensemble du cycle de vie de l'apprentissage automatique pour s'assurer que les modèles sont constamment entraînés, déployés et surveillés, et ainsi garantir leurs performances en production ;

  2. les ingénieurs en IA : les experts en science des données ou les ingénieurs logiciels qui créent des applications agentiques de bout en bout, souvent à l'aide de modèles préentraînés, et comblent le fossé entre la recherche en science des données et les logiciels de production ;

  3. les architectes de systèmes agentiques : un architecte qui s'est affranchi des systèmes traditionnels, et qui conçoit, crée et gère des systèmes agentiques complexes et autonomes capables de raisonner, de planifier, d'agir et de s'adapter de manière indépendante pour atteindre de hauts objectifs commerciaux.

Avec Akamai Inference Cloud, nous ne réduisons pas les utilisateurs à un paradigme ou à une solution spécifique. Nous offrons aux clients la flexibilité nécessaire pour louer une infrastructure, développer sur une plateforme sans serveur et combiner de manière fluide des systèmes complexes en fonction de leurs préférences. 

Rapprocher la pile d'IA de NVIDIA de la prise de décision

Le 28 octobre 2025, nous avons annoncé le lancement d'Akamai Inference Cloud avec pour objectif d'apporter l'inférence intelligente et agentique de l'IA en bordure de l'Internet, là où les expériences personnalisées, les décisions en temps réel et les agents intelligents en ont le plus besoin. 

Les clients ont désormais accès à la dernière génération de GPU NVIDIA Blackwell, associés à la mise en réseau NVIDIA Bluefield, à une mémoire hiérarchisée sur GDDR7, DRAM et NVMe, à un stockage en mode bloc et en mode objet évolutif hautes performances, à des bases de données vectorielles gérées et à une mise en réseau de cloud privé virtuel.

Un ingénieur MLOps peut louer un seul GPU à l'heure ou créer un cluster d'inférence hautes performances avec jusqu'à 8 GPU NVIDIA RTX PRO™ 6000 Blackwell Server Edition, des DPU NVIDIA Bluefield-3Ⓡ, 128 processeurs virtuels, 1 472 Go de DRAM et 8 192 Go de NVMe (Figure 1).

Les GPU NVIDIA Blackwell offrent des performances incroyables.  Akamai Inference Cloud est optimisé pour le temps jusqu'au premier jeton (TTFT) et les jetons par seconde (TPS). Associé à l'infrastructure distribuée en bordure de l'Internet d'Akamai, Akamai Inference Cloud peut réduire la latence des applications intelligentes interactives et en temps réel. 

Les GPU NVIDIA Blackwell offrent des performances exceptionnelles, comme l'indique notre analyse comparative à venir.

Déployez et surveillez des applications agentiques avec App Platform

Nous ne nous contentons pas d'offrir une infrastructure pour aider les ingénieurs plateforme. Ces derniers peuvent facilement déployer et surveiller des applications agentiques grâce à notre plateforme cloud native préconçue qui facilite le déploiement de grands modèles de langage (LLM), d'agents et de bases de connaissances à grande échelle. 

Hautement personnalisable, la plateforme accélère le déploiement, réduit les frais opérationnels et inclut des composants préintégrés prêts pour l'IA tels que des bases de données vectorielles, des cadres LLM et des API compatibles OpenAI dans un portail en libre-service unique. App Platform est optimisé pour une exécution sur LKE, le moteur Kubernetes géré d'Akamai, et peut être déployé sur n'importe quel cluster Kubernetes conforme.  

App Platform for LKE intègre une suite de plus de 30 outils open source fiables de la Cloud Native Computing Foundation (CNCF), notamment KServe, un cadre natif Kubernetes pour fournir et faire évoluer les modèles d'apprentissage automatique en production, et Kubeflow Pipelines, une plateforme pour créer, déployer et gérer des flux de travail ML sur Kubernetes. 

App Platform offre à la fois le cadre Kubernetes et les composants d'IA nécessaires aux ingénieurs pour créer leur propre plateforme d'IA. Cela évite une approche « DIY » qui nécessite une intégration lourde lors de la création et de la maintenance de votre propre plateforme Kubernetes ou de votre pile sur mesure (Figure 2).

Akamai Inference Cloud : conçu pour les intégrations NVIDIA AI Enterprise

NVIDIA AI Enterprise est la plateforme logicielle conçue pour rationaliser votre parcours du développement de l'IA à la production. Cette suite cloud native accélère et simplifie la création, le déploiement et la montée en charge des applications d'IA. À l'aide d'outils puissants tels que les microservices d'inférence NVIDIA (NIM) et les microservices de modules neuronaux (NeMo), elle vous aide à réduire les coûts d'infrastructure et à accélérer considérablement votre arrivée sur le marché (Figure 3). 

Akamai Inference Cloud évolue avec des fonctionnalités natives pour s'adapter à l'ensemble de la suite logicielle NVIDIA AI Enterprise. La plateforme fournit une base fiable, sécurisée et évolutive aux entreprises de toutes tailles pour déployer des systèmes d'IA avancés partout (dans le cloud, dans les centres de données ou en bordure de l'Internet), le tout soutenu par un vaste écosystème de partenaires.

En savoir plus

Akamai Inference Cloud évolue rapidement avec de nombreux lancements de produits prévus jusqu'en 2026. Suivez le blog Akamai ou rendez-vous sur notre site Web pour en savoir plus sur Akamai Inference Cloud.

Jon Alexandar

Oct 28, 2025

Jon Alexander

Jon Alexandar

écrit par

Jon Alexander

Jon Alexander est VP of Product management et est responsable de la gamme de produits Edge Delivery d'Akamai, notamment des produits de réseau de diffusion de contenu (CDN) et de services d'origine.

Balises

Partager

Articles de blog associés

Cloud
Favoriser l'omniprésence de l'IA grâce à Akamai Inference Cloud
October 28, 2025
Découvrez Akamai Inference Cloud, une plateforme spécialement conçue en partenariat avec NVIDIA qui redéfinit où et comment l'IA est utilisée.
Cloud
Comment les entreprises maintiennent un équilibre entre l'innovation en matière d'IA et la protection face aux risques
September 15, 2025
Un nouveau rapport Forrester, commandé par Akamai, révèle la manière dont les entreprises cherchent à innover en matière d'IA à grande échelle sans s'exposer à des niveaux de risque inacceptables.
Cloud
Ce que 400 cadres révèlent sur l'avenir de l'adoption de l'IA
September 25, 2025
Découvrez une étude de Forrester qui révèle que la plupart des entreprises utilisent déjà l'IA pour se différencier de la concurrence, personnaliser l'expérience client et favoriser la fidélisation.