Créer un cluster et son instance principale

Cette page explique comment créer un cluster AlloyDB et son instance principale.

Avant de commencer

  • Le projet Google Cloud que vous utilisez doit être activé pour accéder à AlloyDB.
  • Un réseau VPC dans le projet Google Cloud que vous utilisez doit déjà être configuré pour l'accès aux services privés à AlloyDB.
  • Vous devez disposer de l'un de ces rôles IAM dans le projetGoogle Cloud que vous utilisez :
    • roles/alloydb.admin (rôle IAM prédéfini "Administrateur AlloyDB")
    • roles/owner (rôle IAM de base "Propriétaire")
    • roles/editor (rôle IAM de base Éditeur)
  • Si vous ne disposez d'aucun de ces rôles, contactez l'administrateur de votre organisation pour demander l'accès.
  • Vous devez également disposer de l'autorisation compute.networks.list dans le projetGoogle Cloud que vous utilisez. Pour obtenir cette autorisation tout en suivant le principe du moindre privilège, demandez à votre administrateur de vous accorder le rôle Utilisateur de réseau Compute (roles/compute.networkUser).
  • Pour les charges de travail de développement et de bac à sable, tenez compte de votre région et de votre type de machine. Si vous prévoyez d'utiliser la forme 1 vCPU, assurez-vous de sélectionner une région compatible avec cette forme. Pour en savoir plus, consultez la section Éléments à prendre en compte lors de l'utilisation d'un processeur virtuel.

Créer un cluster

Console

  1. Accédez à la page Clusters.

    accéder aux clusters

  2. Cliquez sur Créer un cluster.

  3. Choisissez une configuration de cluster. Pour en savoir plus sur la différence entre les configurations à haute disponibilité et de base, consultez Nœuds et instances.

    Si vous n'êtes pas sûr que votre nouveau cluster ait besoin d'instances de pool de lecture, choisissez l'une des configurations sans pool de lecture. Vous pouvez ajouter des instances de pool de lecture au cluster ultérieurement, si nécessaire.

  4. Cliquez sur Continuer.

  5. Dans la section Configurer votre cluster, dans le champ ID du cluster, saisissez un ID pour votre cluster.

  6. Dans le champ Mot de passe, saisissez un mot de passe initial pour le nouveau cluster. AlloyDB attribue le mot de passe fourni à l'utilisateur de base de données postgres lors de la création du cluster.

  7. Dans le champ Version de la base de données, sélectionnez la version majeure de PostgreSQL avec laquelle vous souhaitez que les serveurs de base de données du cluster soient compatibles.

  8. Sélectionnez une région. Pour les charges de travail de développement et de bac à sable, envisagez la forme à 1 vCPU (en version bêta), qui est disponible dans certaines régions. Pour en savoir plus, consultez Points à prendre en compte lorsque vous utilisez un processeur virtuel.

  9. Sélectionnez un chemin réseau.

  10. Facultatif : Pour appliquer une plage d'adresses IP spécifique à ce cluster au lieu de laisser AlloyDB en choisir une, procédez comme suit :

    1. Cliquez sur Afficher l'option de plage d'adresses IP allouée.

    2. Dans la liste Plage d'adresses IP allouée, sélectionnez une plage d'adresses IP.

    Pour en savoir plus sur cette option, consultez Créer un cluster avec une plage d'adresses IP spécifique.

  11. Facultatif : Pour chiffrer ce cluster à l'aide d'une clé de chiffrement gérée par le client (CMEK) au lieu du chiffrement géré par Google, suivez ces étapes supplémentaires :

    1. Cliquez sur Options de chiffrement avancées.

    2. Sélectionnez Clé de chiffrement gérée par le client (CMEK).

    3. Dans le menu qui s'affiche, sélectionnez une clé gérée par le client.

      La console Google Cloud limite cette liste aux clés du même projet Google Cloud et de la même région que le nouveau cluster. Pour utiliser une clé qui ne figure pas dans cette liste, cliquez sur Vous ne voyez pas votre clé ? Saisissez un nom de ressource de clé, puis saisissez le nom de ressource de la clé dans la boîte de dialogue qui s'affiche.

      Notez que l'utilisation de CMEK avec AlloyDB nécessite une configuration supplémentaire. Pour en savoir plus, consultez Utiliser des clés CMEK avec AlloyDB.

    4. Cliquez sur Continuer.

  12. Configurez votre instance principale :

    1. Dans le champ ID d'instance, saisissez un ID pour votre instance principale.
    2. Sélectionnez l'une des séries de machines suivantes :

      • C4A (série de machines basées sur Google Axion) (preview)
      • N2 (série de machines x86) Il s'agit de la série de machines par défaut.
    3. Sélectionnez un type de machine.

      • C4A est compatible avec les types ou formes de machines 1, 4, 8, 16, 32, 48, 64 et 72.
      • N2 est compatible avec les types ou formes de machines 2, 4, 8, 16, 32, 64, 96 et 128.

      Pour en savoir plus sur l'utilisation de la série de machines C4A basée sur Axion, y compris le type de machine à 1 vCPU, consultez Points à prendre en compte lors de l'utilisation de la série de machines C4A basée sur Axion.

    4. Facultatif : Définissez des indicateurs personnalisés pour votre instance. Pour chaque signalement, procédez comme suit :

      1. Cliquez sur Ajouter une option.
      2. Dans la liste Nouvel indicateur de base de données, sélectionnez un indicateur.
      3. Indiquez une valeur pour l'option.
      4. Cliquez sur OK.
  13. Si vous avez choisi un type de cluster sans pools de lecture, cliquez sur Créer un cluster.

gcloud

Pour utiliser la gcloud CLI, vous pouvez installer et initialiser Google Cloud CLI, ou utiliser Cloud Shell.

  1. Pour créer le cluster avec l'accès privé aux services ou Private Service Connect activé, utilisez la commande gcloud alloydb clusters create.

    Accès aux services privés

    gcloud alloydb clusters create CLUSTER_ID \
        --database-version=POSTGRES_VERSION \
        --password=PASSWORD \
        --region=REGION_ID \
        --project=PROJECT_ID \
        --network=NETWORK

    Private Service Connect

    gcloud alloydb clusters create CLUSTER_ID \
        --database-version=POSTGRES_VERSION \
        --password=PASSWORD \
        --region=REGION_ID \
        --project=PROJECT_ID \
        --enable-private-service-connect 

    Remplacez les éléments suivants :

    • CLUSTER_ID : ID du cluster que vous créez. Il doit commencer par une lettre minuscule et peut contenir des lettres minuscules, des chiffres et des traits d'union.

    • VERSION : version majeure de PostgreSQL avec laquelle vous souhaitez que les serveurs de base de données du cluster soient compatibles. Choisissez l'une des options suivantes :

      • 14, pour la compatibilité avec PostgreSQL 14

      • 15, pour la compatibilité avec PostgreSQL 15

      • 16, pour la compatibilité avec PostgreSQL 16, qui est la version PostgreSQL par défaut compatible avec AlloyDB.

      • 17, pour la compatibilité avec PostgreSQL 17 (aperçu)

        Pour en savoir plus sur les restrictions qui s'appliquent à l'utilisation de PostgreSQL 17 en version Preview, consultez Compatibilité de la version Preview de PostgreSQL 17.

    • PASSWORD : mot de passe à utiliser pour l'utilisateur postgres par défaut.

    • NETWORK (facultatif) : nom du réseau VPC que vous avez configuré pour l'accès aux services privés à AlloyDB. Si vous omettez l'option --network, AlloyDB utilise le réseau default.

    Dans le cas d'un réseau VPC partagé, définissez le chemin d'accès complet au réseau VPC (par exemple, projects/cymbal-project/global/networks/shared-vpc-network).

    • --enable-private-service-connect (facultatif) : définissez cette valeur pour activer Private Service Connect comme méthode de connectivité pour le cluster et ses instances.

    • REGION_ID : région dans laquelle vous souhaitez placer le cluster.

    • PROJECT_ID : ID du projet dans lequel vous souhaitez placer le cluster.

    Cette commande lance une opération de longue durée et renvoie un ID d'opération.

  2. Facultatif : Pour appliquer une plage d'adresses IP spécifique à ce cluster au lieu de laisser AlloyDB choisir une plage d'adresses IP, fournissez l'argument suivant :

    --allocated-ip-range-name=RANGE
    

    Remplacez RANGE par le nom de la plage d'adresses IP que vous souhaitez que ce cluster utilise pour l'accès aux services privés.

    Pour en savoir plus sur cette option, consultez Créer un cluster avec une plage d'adresses IP spécifique.

  3. Facultatif : Pour chiffrer ce cluster à l'aide d'une clé de chiffrement gérée par le client (CMEK) au lieu du chiffrement géré par Google par défaut, fournissez les arguments suivants :

    --kms-key=KEY_ID \
    --kms-keyring=KEYRING_ID \
    --kms-location=LOCATION_ID \
    --kms-project=PROJECT_ID
    

    Remplacez les éléments suivants :

    • KEY_ID : ID de la clé CMEK à utiliser.

    • KEYRING_ID : ID du trousseau de clés de la clé.

    • LOCATION_ID : ID de la région du trousseau de clés, qui doit être identique à celle du cluster.

    • PROJECT_ID : ID du projet du trousseau de clés.

  4. Vérifiez que l'opération a réussi.

    gcloud alloydb operations describe OPERATION_ID \
        --region=REGION_ID \
        --project=PROJECT_ID

    Remplacez OPERATION_ID par l'ID d'opération renvoyé à l'étape précédente.

Après avoir créé le cluster principal, vous devez créer une instance principale.

Créer une instance principale

Pour créer une instance principale, utilisez la commande gcloud alloydb instances create.

    gcloud alloydb instances create INSTANCE_ID \
        --instance-type=PRIMARY \
        --cpu-count=CPU_COUNT \
        --machine-type=MACHINE_TYPE \
        --region=REGION_ID \
        --cluster=CLUSTER_ID \
        --project=PROJECT_ID \

Remplacez les éléments suivants :

  • INSTANCE_ID : ID de l'instance que vous créez. Il doit commencer par une lettre minuscule et peut contenir des lettres minuscules, des chiffres et des traits d'union.
  • CPU_COUNT : nombre de processeurs virtuels N2 souhaité pour l'instance. N2 est la valeur par défaut. Les valeurs valides sont les suivantes:

    • 2 : 2 vCPU, 16 Go de RAM
    • 4 : 4 vCPU, 32 Go de RAM
    • 8 : 8 processeurs virtuels, 64 Go de RAM
    • 16 : 16 vCPU, 128 Go de RAM
    • 32 : 32 processeurs virtuels, 256 Go de RAM
    • 64 : 64 vCPU, 512 Go de RAM
    • 96 : 96 processeurs virtuels, 768 Go de RAM
    • 128 : 128 vCPU, 864 Go de RAM

  • MACHINE_TYPE : ce paramètre est facultatif lorsque vous déployez des machines N2. Pour déployer la série de machines C4A basée sur Axion (Preview) ou pour migrer entre les machines C4A et N2, choisissez ce paramètre avec les valeurs suivantes.

    Lorsque vous utilisez MACHINE_TYPE et CPU_COUNT ensemble, les valeurs de CPU_COUNT et MACHINE_TYPE doivent correspondre, sinon une erreur s'affiche.

    Pour la série de machines C4A basée sur Axion, choisissez le type de machine avec les valeurs suivantes :

    • c4a-highmem-1
    • c4a-highmem-4-lssd
    • c4a-highmem-8-lssd
    • c4a-highmem-16-lssd
    • c4a-highmem-32-lssd
    • c4a-highmem-48-lssd
    • c4a-highmem-64-lssd
    • c4a-highmem-72-lssd

    Pour déployer C4A avec 4 processeurs virtuels ou plus, utilisez le suffixe lssd pour activer le cache ultrarapide.

    Pour en savoir plus sur l'utilisation de la série de machines C4A basée sur Axion, y compris le type de machine à 1 vCPU, consultez Points à prendre en compte lors de l'utilisation de la série de machines C4A basée sur Axion.

    Pour la série de machines N2 basée sur x86, utilisez le type de machine avec les valeurs suivantes :

    • N2-highmem-2
    • N2-highmem-4
    • N2-highmem-8
    • N2-highmem-16
    • N2-highmem-32
    • N2-highmem-64
    • N2-highmem-96
    • N2-highmem-128
  • REGION_ID : région dans laquelle vous souhaitez placer l'instance.

  • CLUSTER_ID : ID du cluster que vous avez créé précédemment.

  • PROJECT_ID : ID du projet dans lequel votre cluster a été créé.

Facultatif : Pour appliquer une plage d'adresses IP spécifique à cette instance et remplacer les allocations de plages d'adresses IP configurées au niveau du cluster, fournissez l'argument suivant :

    --allocated-ip-range-override=OVERRIDE_RANGE_NAME

Remplacez OVERRIDE_RANGE_NAME par le nom de la plage d'adresses IP que vous souhaitez que cette instance utilise pour l'accès aux services privés (par exemple, google-managed-services-default). Le nom de la plage doit respecter la norme RFC 1035. Plus précisément, le nom doit comporter entre 1 et 63 caractères et correspondre à l'expression régulière [a-z]([-a-z0-9]*[a-z0-9])?.

Pour en savoir plus sur cette option, consultez Créer une instance avec une plage d'adresses IP spécifique.

Vous pouvez également créer une instance AlloyDB avec Private Service Connect activé. Pour savoir comment créer une instance principale pour un cluster compatible avec Private Service Connect, consultez Créer une instance AlloyDB.

Terraform

Pour créer un cluster, utilisez une ressource Terraform.

Voici un extrait de code permettant de créer un cluster basé sur l'exemple AlloyDB cluster full :

resource "google_alloydb_cluster" "cluster_abc" {
  cluster_id = "alloydb-cluster"
  location   = "us-central1"
  network_config {
    network = google_compute_network.default.id
  }
  database_version = "POSTGRES_16"

  initial_user {
    user     = "postgres"
    password = "postgres"
  }

  continuous_backup_config {
    enabled              = true
    recovery_window_days = 14
  }

  automated_backup_policy {
    location      = "us-central1"
    backup_window = "1800s"
    enabled       = true

    weekly_schedule {
      days_of_week = ["MONDAY"]

      start_times {
        hours   = 23
        minutes = 0
        seconds = 0
        nanos   = 0
      }
    }

    quantity_based_retention {
      count = 1
    }

    labels = {
      test = "alloydb-cluster-backup-policy-labels"
    }
  }

  labels = {
    test = "alloydb-cluster-labels"
  }
}

data "google_project" "project" {}

resource "google_compute_network" "default" {
  name = "alloydb-cluster-network"
}

Préparer Cloud Shell

Pour appliquer votre configuration Terraform dans un projet Google Cloud , préparez Cloud Shell comme suit :

  1. Lancez Cloud Shell.
  2. Définissez le projet Google Cloud par défaut dans lequel vous souhaitez appliquer vos configurations Terraform.

    Vous n'avez besoin d'exécuter cette commande qu'une seule fois par projet et vous pouvez l'exécuter dans n'importe quel répertoire.

    export GOOGLE_CLOUD_PROJECT=PROJECT_ID

    Les variables d'environnement sont remplacées si vous définissez des valeurs explicites dans le fichier de configuration Terraform.

Préparer le répertoire

Chaque fichier de configuration Terraform doit avoir son propre répertoire, également appelé module racine.

  1. Dans Cloud Shell, créez un répertoire et un nouveau fichier dans ce répertoire. Le nom de fichier doit être un fichier TF, par exemple main.tf. Dans ce document, le fichier est appelé main.tf.
    mkdir DIRECTORY && cd DIRECTORY && touch main.tf
  2. Copiez l'exemple de code dans le fichier main.tf que vous venez de créer. Vous pouvez également copier le code depuis GitHub. Cela est recommandé lorsque l'extrait Terraform fait partie d'une solution de bout en bout.
  3. Examinez le fichier main.tf et modifiez les exemples de paramètres à appliquer à votre environnement.
  4. Enregistrez les modifications.
  5. Initialisez Terraform. Cette opération n'est à effectuer qu'une seule fois par répertoire.
    terraform init
    Facultatif : Pour utiliser la dernière version du fournisseur Google, incluez l'option -upgrade :
    terraform init -upgrade

Appliquer les modifications

  1. Examinez la configuration pour vérifier que les mises à jour Terraform correspondent à vos attentes :
    terraform plan
    Corrigez les modifications de la configuration si nécessaire.
  2. Appliquez la configuration Terraform en exécutant la commande suivante et en saisissant yes lorsque vous y êtes invité :
    terraform apply
    Attendez que Terraform affiche le message Apply complete!.
  3. Ouvrez votre projet Google Cloud pour afficher les résultats. Dans la console Google Cloud , accédez à vos ressources dans l'interface utilisateur pour vous assurer que Terraform les a créées ou mises à jour.

REST v1

Créer un cluster

Cet exemple crée un cluster. Pour obtenir la liste complète des paramètres de cet appel, consultez Méthode : projects.locations.clusters.create. Pour en savoir plus sur les paramètres de cluster, consultez Afficher les paramètres des clusters et des instances.

N'incluez pas d'informations sensibles ou permettant d'identifier personnellement l'utilisateur dans l'ID de cluster, car les utilisateurs externes peuvent le voir. Vous n'avez pas besoin d'indiquer l'ID du projet dans le nom du cluster. Cet ajout s'effectue automatiquement le cas échéant (par exemple, dans les fichiers journaux).

Pour envoyer votre requête, enregistrez le corps de la requête dans un fichier nommé cluster_request.json :

{
  "databaseVersion": "DATABASE_VERSION",
  "initialUser": {
    "user": "INITIAL_USERNAME",
    "password": "INITIAL_USER_PASSWORD"
  },
  "labels": {
    "test": "alloydb-cluster-full"
  }
}

Effectuez les remplacements suivants :

  • DATABASE_VERSION : chaîne d'énumération de la version de base de données (par exemple, POSTGRES_16).
  • INITIAL_USERNAME : nom d'utilisateur que vous utilisez pour l'utilisateur postgres par défaut.
  • INITIAL_USER_PASSWORD : mot de passe que vous utilisez pour l'utilisateur postgres par défaut.

Utilisez la méthode HTTP et l'URL suivantes :

POST https://alloydb.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/clusters?cluster_id=CLUSTER_ID

Effectuez les remplacements suivants :

  • PROJECT_ID : ID du projet dans lequel vous souhaitez que le cluster soit situé.
  • LOCATION_ID : ID de la région du cluster.
  • CLUSTER_ID : ID du cluster que vous créez. L'ID du cluster doit commencer par une lettre minuscule et peut contenir des lettres minuscules, des chiffres et des traits d'union.

Vous pouvez utiliser la commande curl suivante pour exécuter la requête précédente :

curl -X POST   -H "Authorization: Bearer $(gcloud auth print-access-token)"   -H "Content-Type: application/json"   https://alloydb.googleapis.com/v1alpha/projects/PROJECT_ID/locations/LOCATION_ID/clusters?cluster_id=CLUSTER_ID   -d @cluster_request.json

Créer une instance principale

Cet exemple crée une instance principale. Pour obtenir la liste complète des paramètres de cet appel, consultez Méthode : projects.locations.clusters.instances.create. Pour en savoir plus sur les paramètres de cluster, consultez Afficher les paramètres des clusters et des instances.

N'incluez pas d'informations sensibles ou permettant d'identifier personnellement l'utilisateur dans l'ID de votre cluster, car les utilisateurs externes peuvent le voir. Vous n'avez pas besoin d'inclure l'ID du projet dans le nom du cluster, car cela est fait automatiquement le cas échéant (par exemple, dans les fichiers journaux).

Pour envoyer votre demande, enregistrez le corps de la requête suivant dans un fichier nommé instance_request.json.

{
  "instance_type": "PRIMARY",
  "machine_config": {
    "cpu_count": "vCPU_COUNT"
  }
}

Effectuez le remplacement suivant :

  • VCPU_COUNT : nombre de cœurs de processeur visibles sur l'instance que vous souhaitez créer.

L'exemple précédent crée une instance N2 avec les spécifications suivantes :

  • 2 : 2 processeurs virtuels, 16 Go de RAM
  • 4 : 4 processeurs virtuels, 32 Go de RAM
  • 8 : 8 processeurs virtuels, 64 Go de RAM
  • 16 : 16 vCPU, 128 Go de RAM
  • 32 : 32 processeurs virtuels, 256 Go de RAM
  • 64 : 64 vCPU, 512 Go de RAM
  • 96 : 96 vCPU, 768 Go de RAM
  • 128 : 128 vCPU, 864 Go de RAM

Pour créer une instance C4A, utilisez le champ machine_type au lieu de cpu_count dans la structure machine_config, comme indiqué dans l'exemple suivant :

machine_config: {
  machine_type : MACHINE_TYPE,
},

Pour la série de machines C4A basées sur Axion, utilisez les valeurs valides suivantes :

  • c4a-highmem-1
  • c4a-highmem-4-lssd
  • c4a-highmem-8-lssd
  • c4a-highmem-16-lssd
  • c4a-highmem-32-lssd
  • c4a-highmem-48-lssd
  • c4a-highmem-64-lssd
  • c4a-highmem-72-lssd

Pour la série de machines N2, les valeurs valides sont les suivantes :

  • n2-highmem-2
  • n2-highmem-4
  • n2-highmem-8
  • n2-highmem-16
  • n2-highmem-32
  • n2-highmem-64
  • n2-highmem-96
  • n2-highmem-128

Utilisez la méthode HTTP et l'URL suivantes :

POST https://alloydb.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/clusters/CLUSTER_ID/instances?instance_id=INSTANCE_ID

Effectuez les remplacements suivants :

  • PROJECT_ID : ID du projet dans lequel vous souhaitez que le cluster soit situé.
  • LOCATION_ID : ID de la région du cluster.
  • CLUSTER_ID : ID du cluster que vous créez. L'ID doit commencer par une lettre minuscule et peut contenir des lettres minuscules, des chiffres et des traits d'union.
  • INSTANCE_ID : nom de l'instance principale que vous souhaitez créer.

Vous pouvez utiliser curl pour exécuter la requête, comme illustré dans l'exemple suivant :

curl -X POST   -H "Authorization: Bearer $(gcloud auth print-access-token)"   -H "Content-Type: application/json"   https://alloydb.googleapis.com/v1alpha/projects/PROJECT_ID/locations/LOCATION_ID/clusters/CLUSTER_ID/instances?instance_id=INSTANCE_ID   -d @instance_request.json

Cloner un cluster actif

Pour créer un clone d'un cluster actif, contenant une copie de toutes les données du cluster source et s'exécutant dans la même région, effectuez une récupération à un instant donné sur ce cluster. Vous pouvez spécifier un point temporel très récent, par exemple la première seconde de la minute en cours.

Ce processus ne copie que les données du cluster source dans le clone, et non sa configuration. Pour chiffrer les données du clone à l'aide de CMEK, vous devez spécifier les détails de CMEK dans la commande de récupération à un moment donné, même si les données du cluster source sont déjà chiffrées par CMEK. Une fois le nouveau cluster créé, vous devez ajouter des instances, des indicateurs de base de données, des plannings de sauvegarde et toute autre configuration nécessaire pour répondre à vos besoins.

Un cluster créé de cette manière existe indépendamment de sa source, et ses données n'ont aucune relation avec les données du cluster source une fois la duplication initiale terminée. Si vous souhaitez créer des clusters secondaires qui suivent et répliquent automatiquement les modifications apportées aux données dans leurs clusters sources, consultez À propos de la réplication multirégionale.

Créer un cluster avec une plage d'adresses IP spécifique

AlloyDB utilise l'accès aux services privés pour permettre aux ressources internes d'un cluster de communiquer entre elles. Avant de pouvoir créer un cluster, votre réseau cloud privé virtuel (VPC) doit contenir au moins une plage d'adresses IP configurée avec une connexion d'accès aux services privés.

Si votre réseau VPC contient plusieurs plages d'adresses IP configurées avec l'accès aux services privés, vous pouvez spécifier la plage qu'AlloyDB attribue à un nouveau cluster. Les plages d'adresses IP doivent être au moins égales à /24 et disposer de suffisamment d'espace disponible pour que la création du cluster réussisse.

Pour spécifier une plage d'adresses IP, consultez les étapes facultatives de la section Créer un cluster.

Si vous ne spécifiez pas de plage, AlloyDB effectue l'une des actions suivantes lors de la création d'un cluster :

  • Si plusieurs plages d'adresses IP avec accès aux services privés sont disponibles, AlloyDB en choisit une.

  • Si vous avez configuré exactement une plage d'adresses IP dans votre VPC avec accès aux services privés, AlloyDB applique cette plage au nouveau cluster.

Pour savoir comment créer des plages d'adresses IP à utiliser avec AlloyDB, consultez Activer l'accès aux services privés.

Créer une instance avec une plage d'adresses IP spécifique

Comme pour la création d'un cluster avec une plage d'adresses IP spécifique, vous pouvez créer une instance et spécifier une plage d'adresses IP pour une instance qui remplace toutes les allocations de plages d'adresses IP au niveau du cluster. Vous pouvez définir la plage d'adresses IP spécifiques lorsque vous créez des instances à l'aide de Google Cloud CLI, de Terraform ou de l'API REST.

Les plages d'adresses IP doivent être au moins de /24 et disposer de suffisamment d'espace pour que la création d'instances réussisse. Pour en savoir plus sur la création de plages d'adresses IP à utiliser avec AlloyDB, consultez Activer l'accès aux services privés.

Si vous ne spécifiez pas de plage à remplacer lors de la création de l'instance, AlloyDB effectue l'une des actions suivantes :

  • Si vous avez défini la plage d'adresses IP allouée facultative lors de la création du cluster, AlloyDB choisit l'une des plages pour créer la nouvelle instance.

  • Si vous n'avez pas défini la plage d'adresses IP allouée facultative lors de la création du cluster, AlloyDB choisit l'une des plages avec accès aux services privés.

Éléments à prendre en compte lors de l'utilisation de la série de machines C4A basées sur Axion

AlloyDB propose une série de machines C4A basée sur Google Axion, le processeur ARM personnalisé de Google. Les machines virtuelles (VM) C4A sont disponibles dans des configurations prédéfinies pour 1, 4, 8, 16, 32, 48, 64 et 72 processeurs virtuels, avec jusqu'à 576 Go de mémoire DDR5 (Double Data Rate 5).

Lorsque vous choisissez C4A, tenez compte des points suivants :

  • Pour déployer la série de machines C4A, vous utilisez MACHINE_TYPE et CPU_COUNT, où CPU_COUNT doit correspondre à la valeur de cpu-count dans MACHINE_TYPE.
  • Pour passer de N2 à C4A à l'aide de Google Cloud CLI, vous devez mettre à jour MACHINE_TYPE et CPU_COUNT, où CPU_COUNT doit correspondre à la valeur de cpu-count dans MACHINE_TYPE.
  • Pour passer de C4A à N2, vous devez mettre à jour MACHINE_TYPE et CPU_COUNT, où CPU_COUNT doit correspondre à la valeur de cpu-count dans MACHINE_TYPE.

C4A est disponible dans les régions suivantes :

  • asia-east1
  • asia-southeast1
  • europe-west1
  • europe-west2
  • europe-west3
  • europe-west4
  • us-central1
  • us-east1
  • us-east4

Points à prendre en compte lorsque vous utilisez le type de machine à 1 vCPU

AlloyDB propose une forme à 1 vCPU avec C4A, qui est destinée uniquement au développement et au bac à sable. Pour les charges de travail de production, choisissez au moins deux processeurs virtuels.

Lorsque vous choisissez 1 vCPU, tenez compte des limites suivantes :

  • 1 vCPU est proposé avec 8 Go de mémoire sans prise en charge du cache ultrarapide.
  • Une configuration à 1 processeur virtuel est recommandée pour les environnements de développement et de bac à sable avec des bases de données de petite taille (de l'ordre de dizaines de gigaoctets). Pour les bases de données plus volumineuses et les charges de travail de production, envisagez d'utiliser au moins deux vCPU.
  • Vous pouvez configurer la haute disponibilité (HA), mais aucun contrat de niveau de service n'est proposé pour le temps d'activité.
  • Les mises à niveau sur place des versions majeures ne sont pas compatibles avec les machines C4A de 1, 48 et 72 vCPU. Envisagez d'autres approches de mise à niveau, comme le vidage et la restauration, ou essayez de faire évoluer votre instance avant de lancer une mise à niveau de version majeure sur place.
  • Consultez les régions compatibles avec C4A dans lesquelles vous pouvez déployer un processeur virtuel.

Étapes suivantes