Datadog, fournisseur d’une plateforme de monitoring et de sécurité des applications cloud, publie les résultats de son étude annuelle qui étudie les tendances fortes de l’utilisation des conteneurs. Alors que de plus en plus d’organisations transfèrent leurs applications vers des conteneurs, leur écosystème s’étend et évolue chaque jour pour s’adapter à une réalité de plus en plus dynamique. Notre rapport est basé sur l’analyse de plus de 1,5 milliard de conteneurs gérés par des dizaines de milliers de clients Datadog afin de comprendre comment les registres d’images, les maillages de services, la mise en réseau et d’autres technologies sont concrètement utilisés dans des environnements de conteneurs.
Que ce soit dans des clusters auto-gérés ou via un service de fournisseur cloud tel que Google Kubernetes Engine (GKE), Azure Kubernetes Service (AKS) ou Amazon Elastic Kubernetes Service (EKS), l’adoption de Kubernetes a plus que doublé depuis 2017 et progresse constamment sans aucun signe de ralentissement.
Notre étude indique que l’orchestration est désormais la norme pour déployer et maintenir des environnements de conteneurs qui ne font que gagner en taille et en complexité, 90% d’entre eux sont orchestrés par Kubernetes, Amazon ECS, Mesos et Nomad.
En comparant les prérequis en CPU et mémoire assignés aux conteneurs, nous constatons que 49% des conteneurs utilisent moins de 30% de la capacité allouée en CPU et 74% d’entre eux en utilisent moins de 80%. Le même décalage est observé pour la mémoire, 45% des conteneurs utilisant moins de 30% de la capacité allouée et 78% d’entre eux en utilisent moins de 80%. Néanmoins, il est souvent difficile d’aligner les capacités allouées et l’usage réel, notamment lorsqu’il s’agit de charges de travail volatiles. Une prévision optimale nécessite de considérer quelques facteurs, tels que :
La fluctuation de la charge de l’application
Comment l’application traite la privation de ressources
À quelle rapidité peut-on augmenter le nombre de nœuds pour absorber les pics de charge
Quel délai de mise à l’échelle des nœuds est acceptable pour votre cas d’utilisation.
GKE, le premier service Kubernetes managé du marché, continue de dominer sur Google Cloud cinq ans après sa sortie (90% sur GCP). AKS devient la norme pour deux-tiers des utilisateurs de Kubernetes sur Azure, alors que EKS a gagné 10 points en un an.
AWS Fargate est une logique sans serveur qui permet de faire tourner des conteneurs, à l’échelle, sans avoir à gérer l’infrastructure sous-jacente. Nos recherches montrent que l’utilisation de Fargate est en constante augmentation parmi les organisations qui utilisent des conteneurs dans AWS. Aujourd’hui, 32% des entreprises qui exécutent des conteneurs dans AWS utilisent Fargate, contre 19% il y a 1 an et 6% il y a 2 ans. Le développement rapide de Fargate contribue probablement à cette tendance, initialement lancé sur Amazon ECS en 2017, Fargate supporte également Amazon EKS depuis la fin de l’année dernière.
L’analyse des données des organisations utilisant Kubernetes montre une tendance claire : à mesure que la taille d’un cluster augmente, les petits nœuds sont remplacés par des nœuds plus grands.
Alors que Kubernetes est conçu pour être tolérant aux pannes, la défaillance d’un seul nœud en particulier un nœud de grande taille - est susceptible de poser un problème plus grave dans un petit cluster. Des réplications distribuées sur des nœuds plus petits, plutôt que de les regrouper sur un nombre plus restreint de nœuds de grande capacité, peut contribuer à résoudre ce problème et à améliorer la fiabilité. Toutefois, à mesure que la taille des clusters augmente, les organisations peuvent tirer plusieurs avantages de l’utilisation de nœuds plus grands.
Malgré la fréquence trimestrielle des nouvelles versions de Kubernetes, la plupart des entreprises continuent d’utiliser des versions plus anciennes et plus éprouvées. Cela rejoint le constat de notre étude précédente qui montrait que la version la plus populaire à ce moment-là datait de 10 mois.
Des services mesh tels que Istio fournissent une couche d’infrastructure en charge de la communication dans une architecture distribuée de micro-services. Selon notre étude, la plupart des organisations n’en sont qu’au début de leur parcours d’adoption des services mesh, mais plus d’un quart de celles qui disposent de conteneurs à grande échelle ont déjà commencé les expérimenter, probablement parce qu’elles sont les plus susceptibles de bénéficier de fonctionnalités avancées telles que la mise en réseau de plusieurs cluster.
Alors que Docker Hub reste populaire, notre étude montre que 50% des images de conteneurs sont désormais hébergées dans des registres managés par des fournisseurs de cloud et des registres tiers. Azure Container Registry, Amazon Elastic Container Registry et Google Container Registry comptent pour 39% de toutes les images hébergées. Parmi les registres tiers, GitLab Container Registry et JFrog Container Registry sont en tête en termes d’hébergement.
La solidité de ce rapport résulte d’une compilation de données d’usage de milliers d’entreprises, qui quotidiennement exécutent collectivement près de 1,5 milliards de conteneurs. De la start-up aux sociétés du Fortune 100, les clients de Datadog représentent la plupart des industries et ont néanmoins des points communs. Tout d’abord, ils ont tendance à prendre au sérieux l’infrastructure logicielle et les performances des applications et ils sont plus enclins à adopter les plates-formes et les services cloud que la moyenne. Tous les résultats présentés dans cet article sont biaisés par le fait que les données proviennent de notre base de clients, un échantillon important mais imparfait de l’ensemble du marché mondial.