Dans Cloud Run, chaque révision est automatiquement adaptée au nombre d'instances nécessaires pour traiter toutes les requêtes entrantes.
Plus il y a d'instances qui traitent des requêtes, plus le nombre de ressources processeur et mémoire utilisées augmente, ce qui entraîne des coûts plus élevés.
Pour vous offrir davantage de contrôle, Cloud Run fournit un paramètre nombre maximal de requêtes simultanées par instance qui spécifie le nombre maximal de requêtes pouvant être traitées simultanément par une instance donnée.
Nombre maximal de requêtes simultanées par instance
Vous pouvez configurer le nombre maximal de requêtes simultanées par instance. Par défaut, chaque instance Cloud Run peut recevoir jusqu'à 80 requêtes simultanément. Vous pouvez augmenter cette valeur jusqu'à 1 000.
Bien que vous deviez utiliser la valeur par défaut, vous pouvez réduire la simultanéité maximale si nécessaire. Par exemple, si votre code ne peut pas traiter les requêtes parallèles, définissez la simultanéité sur 1
.
La valeur de simultanéité spécifiée est une limite maximale. Si le processeur de l'instance est déjà très sollicité, Cloud Run peut décider de limiter à une valeur inférieure le nombre de requêtes à envoyer à une instance donnée. Dans ce cas, l'instance Cloud Run peut indiquer que la simultanéité maximale n'est pas utilisée. Par exemple, si l'utilisation élevée du processeur est maintenue, le nombre d'instances peut augmenter.
Le schéma suivant montre comment le paramètre de nombre maximal de requêtes simultanées par instance affecte le nombre d'instances nécessaires pour gérer les requêtes simultanées entrantes :
Ajuster la simultanéité pour l'autoscaling et l'utilisation des ressources
L'ajustement de la simultanéité maximale par instance a une incidence importante sur la façon dont votre service évolue et utilise les ressources.
- Simultanéité réduite: oblige Cloud Run à utiliser davantage d'instances pour le même volume de requêtes, car chaque instance traite moins de requêtes. Cela peut améliorer la réactivité des applications qui ne sont pas optimisées pour un parallélisme interne élevé ou des applications que vous souhaitez faire évoluer plus rapidement en fonction de la charge de requêtes.
- Simultanéité accrue: permet à chaque instance de traiter davantage de requêtes, ce qui peut réduire le nombre d'instances actives et réduire les coûts. Cette option convient aux applications efficaces pour les tâches parallèles liées aux E/S ou pour les applications pouvant réellement utiliser plusieurs vCPU pour le traitement simultané des requêtes.
Commencez avec la valeur de par défaut (80) , surveillez attentivement les performances et l'utilisation de votre application, puis ajustez-les si nécessaire.
Concurrency with multi-vCPU instances (Concurrency avec les instances multi-vCPU)
Le paramétrage de la simultanéité est particulièrement important si votre service utilise plusieurs vCPU, mais que votre application est monothread ou effectivement monothread (liée au processeur).
- Points chauds de vCPU: une application à thread unique sur une instance multi-vCPU peut utiliser un vCPU au maximum tandis que les autres sont inactifs. L'autoscaler de processeur Cloud Run mesure l'utilisation moyenne du processeur sur tous les processeurs virtuels. Dans ce scénario, l'utilisation moyenne du processeur peut rester trompeuse, ce qui empêche un scaling efficace basé sur le processeur.
- Utiliser la simultanéité pour optimiser l'évolutivité: si l'autoscaling basé sur le processeur est inefficace en raison de points chauds de processeur virtuel, la réduction de la simultanéité maximale devient un outil important. Les points chauds de processeur virtuel se produisent souvent lorsque plusieurs processeurs virtuels sont choisis pour une application monothread en raison de besoins de mémoire élevés. L'utilisation de la simultanéité pour le scaling force le scaling en fonction du débit des requêtes. Cela garantit que davantage d'instances sont démarrées pour gérer la charge, ce qui réduit la mise en file d'attente et la latence par instance.
Quand limiter l'accès simultané maximal à une requête à la fois
Vous pouvez limiter la simultanéité de sorte qu'une seule requête à la fois soit envoyée à chaque instance en cours d'exécution. Vous devriez envisager de le faire dans les cas suivants :
- Lorsque chaque requête utilise la majeure partie du processeur ou de la mémoire disponible.
- Lorsque votre image de conteneur n'est pas conçue pour traiter plusieurs requêtes simultanément, par exemple si votre conteneur repose sur un état global qui deux requêtes ne peuvent pas partager.
Sachez qu'une simultanéité de 1
risque d'affecter négativement les performances de scaling, car le traitement d'un pic de requêtes entrantes nécessitera le démarrage de nombreuses instances. Pour en savoir plus, consultez la section Compromis entre débit, latence et coûts.
Étude de cas
Les métriques suivantes illustrent un cas d'utilisation dans lequel 400 clients envoient trois requêtes par seconde à un service Cloud Run dont le nombre maximal de requêtes simultanées est défini sur 1. La courbe verte en haut représente le nombre de requêtes au fil du temps. La courbe bleue en bas représente le nombre d'instances démarrées afin de traiter les requêtes.
Les métriques suivantes illustrent un cas d'utilisation dans lequel 400 clients envoient trois requêtes par seconde à un service Cloud Run dont le nombre maximal de requêtes simultanées est défini sur 80. La courbe verte en haut représente le nombre de requêtes au fil du temps. La courbe bleue en bas représente le nombre d'instances démarrées afin de traiter les requêtes. Notez que beaucoup moins d'instances sont nécessaires pour gérer le même volume de requêtes.
Concurrency for source code deployments (Concurrency pour les déploiements de code source)
Lorsque la simultanéité est activée, Cloud Run ne fournit pas d'isolation entre les requêtes simultanées traitées par la même instance. Dans de tels cas, vous devez vous assurer que le code peut être exécuté simultanément en toute sécurité. Vous pouvez modifier ce paramètre en définissant une autre valeur de simultanéité. Nous vous recommandons de commencer par une simultanéité modérée, définie par exemple sur la valeur 8, puis de l'augmenter progressivement. Le fait de commencer avec une simultanéité trop élevée peut entraîner un comportement inattendu en raison des contraintes exercées sur les ressources (telles que la mémoire ou le processeur).
Les environnements d'exécution de langage peuvent également avoir un impact sur la simultanéité. Certains de ces impacts spécifiques à une langue sont indiqués dans la liste suivante:
Node.js est intrinsèquement monothread. Pour profiter de la simultanéité, utilisez le style de code asynchrone de JavaScript, qui est idiomatique dans Node.js. Pour en savoir plus, consultez la page Contrôle de flux asynchrone dans la documentation officielle de Node.js.
Pour Python 3.8 et versions ultérieures, la prise en charge d'une forte concurrence par instance nécessite suffisamment de threads pour gérer la concurrence. Nous vous recommandons de définir une variable d'environnement d'exécution afin que la valeur des threads soit égale à la valeur de la concurrence, par exemple :
THREADS=8
.
Étape suivante
Pour gérer le nombre maximal de requêtes simultanées par instance de vos services Cloud Run, consultez la page Définir le nombre maximal de requêtes simultanées par instance.
Pour optimiser le nombre maximal de requêtes simultanées par instance, consultez les conseils de développement pour le réglage de la simultanéité.