Modèle hybride de périphérie

Last reviewed 2023-12-14 UTC

Dans certains cas, pour exécuter des charges de travail dans le cloud, les clients doivent disposer d'une connectivité Internet rapide et fiable. Compte tenu des réseaux actuels, cette exigence pose rarement un défi pour les projets d'adoption du cloud. Il existe cependant des scénarios dans lesquels vous ne pouvez pas compter sur une connectivité continue, par exemple:

  • Les navires et autres véhicules peuvent n'être connectés que de manière intermittente ou n'avoir accès qu'aux liaisons satellite à latence élevée.
  • Les usines ou les centrales peuvent être connectées à Internet. Ces installations peuvent cependant avoir des exigences de fiabilité dépassant les affirmations de disponibilité de leur fournisseur d'accès à Internet.
  • Les magasins et les supermarchés peuvent n'être connectés que de manière occasionnelle ou utiliser des liens n'offrant pas la fiabilité ou le débit nécessaires pour traiter des transactions critiques.

Le modèle d'architecture hybride de périphérie résout ces problèmes en exécutant localement des charges de travail urgentes et stratégiques, à la périphérie du réseau, tout en utilisant le cloud pour toutes les autres charges de travail. Dans une architecture hybride de périphérie, le lien Internet est un composant non critique utilisé à des fins de gestion et de synchronisation ou de chargement de données, souvent de manière asynchrone, mais n'intervenant pas dans des transactions urgentes ou critiques.

Données provenant d'un environnement Google Cloud et transmises à la périphérie

Avantages

L'exécution de certaines charges de travail à la périphérie et d'autres dans le cloud présente plusieurs avantages:

  • Le trafic entrant (transfert de données de la périphérie vers Google Cloud) peut être gratuit.
  • L'exécution de charges de travail urgentes et stratégiques à la périphérie permet de garantir une faible latence et une autosuffisance. Si la connexion Internet échoue ou est temporairement indisponible, vous pouvez toujours exécuter toutes les transactions importantes. Dans le même temps, vous pouvez tirer parti de l'utilisation du cloud pour une part importante de votre charge de travail globale.
  • Vous pouvez réutiliser des investissements informatiques et de stockage existants.
  • Au fil du temps, vous pouvez réduire progressivement la fraction de charges de travail exécutées en périphérie et les déplacer vers le cloud, soit en retravaillant certaines applications, soit en dotant certains emplacements de périphérie de liens Internet plus fiables.
  • Les projets liés à l'Internet des objets (IoT) peuvent devenir plus rentables en effectuant des calculs de données localement. Cela permet aux entreprises d'exécuter et de traiter certains services localement en périphérie, plus près des sources de données. Il permet également aux entreprises d'envoyer des données de manière sélective vers le cloud, ce qui peut contribuer à réduire la capacité, le transfert de données, le traitement et les coûts globaux de la solution IoT.
  • L'edge computing peut agir comme une couche de communication intermédiaire entre les services anciens et modernisés. (par exemple, les services qui peuvent exécuter une passerelle API conteneurisée telle qu'Apigee hybrid). Cela permet aux applications et systèmes anciens de s'intégrer à des services modernisés, tels que les solutions IoT.

Bonnes pratiques

Tenez compte des recommandations suivantes lorsque vous mettez en œuvre le modèle d'architecture hybride de périphérie:

  • Si la communication est unidirectionnelle, utilisez le modèle d'entrée contrôlée.
  • Si la communication est bidirectionnelle, tenez compte du modèle d'entrée et de sortie contrôlées.
  • Si la solution se compose de nombreux sites distants de périphérie se connectant à Google Cloud via Internet public, vous pouvez utiliser une solution SD-WAN (Software-Defined WAN). Vous pouvez également utiliser Network Connectivity Center avec un routeur SD-WAN tiers compatible avec un partenaire Google Cloud pour simplifier le provisionnement et la gestion de la connectivité sécurisée à grande échelle.
  • Minimisez les dépendances entre les systèmes exécutés en périphérie et ceux exécutés dans l'environnement cloud. Chaque dépendance peut compromettre les avantages en termes de fiabilité et de latence d'une configuration hybride en périphérie.
  • Pour gérer et exploiter efficacement plusieurs emplacements périphériques, vous devez disposer d'un plan de gestion et d'une solution de surveillance centralisés dans le cloud.
  • Assurez-vous que les pipelines CI/CD ainsi que les outils de déploiement et de surveillance sont cohérents dans les environnements cloud et périphériques.
  • Envisagez d'utiliser des conteneurs et Kubernetes lorsque cela est possible et approprié, afin d'éliminer les différences entre les différents emplacements périphériques, ainsi qu'entre les emplacements périphériques et le cloud. Étant donné que Kubernetes fournit une couche d'exécution commune, vous pouvez développer, exécuter et utiliser des charges de travail de manière cohérente dans tous les environnements informatiques. Vous pouvez également déplacer des charges de travail entre le cloud et le réseau de périphérie.
    • Pour simplifier la configuration et le fonctionnement hybrides, vous pouvez utiliser GKE Enterprise pour cette architecture (si des conteneurs sont utilisés dans les environnements). Examinez les options de connectivité possibles pour connecter un cluster GKE Enterprise exécuté dans votre environnement sur site ou de périphérie à Google Cloud.
  • Dans le cadre de ce modèle, bien que certains composants GKE Enterprise puissent être maintenus en cas d'interruption temporaire de la connectivité avec Google Cloud, n'utilisez pas GKE Enterprise lorsqu'il est déconnecté de Google Cloud en tant que mode de fonctionnement nominal. Pour en savoir plus, consultez la section Impact de la déconnexion temporaire de Google Cloud.
  • Pour surmonter les incohérences entre les protocoles, les API et les mécanismes d'authentification dans les différents services backend et edge, nous vous recommandons, le cas échéant, de déployer une passerelle API ou un proxy en tant que façade unificatrice. Cette passerelle ou ce proxy sert de point de contrôle centralisé et effectue les mesures suivantes :
    • Implémente des mesures de sécurité supplémentaires.
    • Protège les applications clientes et les autres services contre les modifications du code backend.
    • Facilite les journaux d'audit pour la communication entre toutes les applications multi-environnements et leurs composants découplés.
    • Agit comme une couche de communication intermédiaire entre les services anciens et modernisés.
      • Apigee et Apigee Hybrid vous permettent d'héberger et de gérer des passerelles hybrides et pensées pour les entreprises dans des environnements sur site, edge, d'autres clouds et des environnements Google Cloud.
  • Établissez une identité commune entre les environnements afin que les systèmes puissent s'authentifier de manière sécurisée au-delà des limites de l'environnement.
  • Les données échangées entre environnements pouvant être sensibles, assurez-vous que toutes les communications sont chiffrées en transit à l'aide de tunnels VPN, du protocole TLS ou des deux.