Le stockage, nouveau goulot d’étranglement de l’IA en entreprise
Une étude indépendante menée auprès de 504 entreprises utilisant l’IA en production remet en cause une idée reçue : ce ne sont pas les GPU qui freinent le passage à l’échelle, mais bien le stockage.

Commanditée par Scality et réalisée par Freeform Dynamics, l’enquête (conduite aux États-Unis, au Royaume-Uni, en France et en Allemagne auprès de décideurs IT dans des organisations de plus de 1 000 collaborateurs) dresse un tableau sans ambiguïté. Parmi les entreprises ayant industrialisé leurs workloads d’IA privée, 57 % citent la performance du stockage comme première priorité pour éviter les congestions, devançant la disponibilité des GPU (54 %) et la bande passante réseau (52 %).
Le stockage objet s’impose comme socle de l’IA souveraine
L’adoption du stockage objet atteint des niveaux inédits dans ces environnements : 91 % des entreprises déployant une IA privée en production y ont recours de manière significative, 44 % de façon intensive, 47 % de façon importante. C’est l’architecture de stockage la plus répandue, devant le stockage fichier et loin devant le stockage bloc.
Ce basculement s’explique par la nature même des pipelines d’IA modernes. L’inférence, aujourd’hui activité centrale de l’IA en entreprise, exige une capacité à gérer simultanément des données actives à faible latence et des volumes massifs de données historiques. Le stockage objet compatible S3, flexible et scalable, s’impose naturellement comme couche fondamentale de ces architectures hybrides. 81 % des entreprises interrogées jugent par ailleurs qu’une infrastructure d’IA sous leur contrôle direct est critique pour leur succès, portées par des impératifs de conformité réglementaire, de souveraineté des données et de maîtrise des coûts.
Des risques concrets sur les architectures en production
L’étude identifie plusieurs points de friction opérationnels que les équipes infrastructure doivent anticiper. La gestion des métadonnées à grande échelle est citée comme risque de saturation par 40 % des répondants. Près de 38 % signalent des difficultés à concilier les besoins contradictoires des workloads mixtes : haut débit pour l’entraînement des modèles, faible latence pour l’inférence en temps réel.
Sur le plan architectural, les entreprises se répartissent entre deux approches : 44 % adaptent leur infrastructure de calcul existante pour l’IA (42 % font de même côté stockage), tandis que 40 % construisent des environnements entièrement dédiés. Le modèle dominant reste donc hybride et hiérarchisé (tiered), combinant couches rapides et couches capacitaires évolutives, une réalité qui contraste avec le discours dominant centré sur les seuls accélérateurs matériels.
In fine, dimensionner l’IA en production sans traiter la question du stockage comme une variable critique revient à investir massivement sur un moteur sans soigner la transmission.
Source: InfoDSI

