Cortex pour Meridian

Cette page décrit en détail le processus de préparation des données et d'automatisation du cloud pour Google Meridian. Cortex Framework pour Meridian simplifie la modélisation du mix marketing (MMM) open source avec des données cross-média et de vente. Cortex Framework simplifie ce processus en fournissant des modèles de données préconfigurés et en automatisant l'exécution du modèle Open Source Meridian à l'aide de services Google Cloud tels que Colab Enterprise et Workflows.

L'un des principaux avantages de Google Cloud Cortex Framework est de fournir une base de données et d'intelligence artificielle (IA) pour l'intelligence d'entreprise de nouvelle génération. Il permet d'effectuer des analyses dans des domaines clés tels que les ventes, le marketing, le traitement des commandes et la gestion des stocks.

Cortex Framework pour le marketing fournit des indicateurs clés de performance (KPI) et des métriques cross-média. Ces métriques constituent une partie importante de l'étape de préparation des données avant la modélisation pour exécuter la dernière solution MMM Open Source de Google, appelée Meridian. Les annonceurs, les agences et les partenaires peuvent accélérer le processus de préparation des données avant la modélisation en tirant parti de la base de données Google Cloud Cortex Framework.

Cortex pour Meridian simplifie le processus de pré-modélisation en collectant et en transformant efficacement les données des principales sources de données Cortex Framework, y compris :

Pour en savoir plus, consultez la documentation Meridian.

Fichier de configuration

Lors de l'exécution du notebook, le système récupère les paramètres de configuration à partir du fichier cortex_meridian_config.json situé dans le dossier configuration de Cloud Storage.

La section suivante présente différents exemples de fichiers YAML de configuration pour l'exécution de Meridian :

Ventes

Exemple de fichier de configuration YAML pour les ventes en tant que KPI :

{
  "cortex_bq_project_id": "PROJECT_ID",
  "cortex_meridian_marketing_data_set_id": "K9_REPORTING",
  "cortex_meridian_marketing_view_name": "CrossMediaSalesInsightsWeeklyAgg",
  "column_mappings": {
      "controls": [],
      "geo": "geo",
      "kpi": "number_of_sales_orders",
      "media": [
          "Tiktok_impression",
          "Meta_impression",
          "YouTube_impression",
          "GoogleAds_impression"
      ],
      "media_spend": [
          "Tiktok_spend",
          "Meta_spend",
          "YouTube_spend",
          "GoogleAds_spend"
      ],
      "population": "population",
      "revenue_per_kpi": "average_revenue_per_sales_order",
      "time": "time"
  },
  "channel_names": [
      "TikTok",
      "Meta",
      "YouTube",
      "GoogleAds"
  ],
  "data_processing": {
      "kpi_type": "{USE_CASE_SPECIFIC}",
      "roi_mu": {USE_CASE_SPECIFIC},
      "roi_sigma": {USE_CASE_SPECIFIC},
      "sample": {
          "prior": {USE_CASE_SPECIFIC},
          "posterior": {
              "n_chains": {USE_CASE_SPECIFIC},
              "n_adapt": {USE_CASE_SPECIFIC},
              "n_burnin": {USE_CASE_SPECIFIC},
              "n_keep": {USE_CASE_SPECIFIC}
          }
      }
  }
}

Conversions

Exemples de fichiers de configuration YAML pour les conversions en tant que KPI :

...
    "kpi": "conversions",
    "revenue_per_kpi": "",
...

Le tableau suivant décrit la valeur de chaque paramètre de configuration du fichier cortex_meridian_config.json :

.
Paramètre Signification Valeur par défaut Description
cortex_bq_project_id Projet contenant les ensembles de données Cortex Framework. {PROJECT_ID} ID du projet Google Cloud .
cortex_meridian_marketing_data_set_id Ensemble de données BigQuery avec la vue Cortex pour Meridian. Valeur de configuration de k9.datasets.reporting dans le fichier config.json. Ensemble de données contenant la vue cortex_meridian_marketing_view_name.
cortex_meridian_marketing_view_name Vue BigQuery avec Cortex pour les données marketing et les ventes Meridian. "CrossMediaSalesInsightsWeeklyAgg" Vue contenant des données marketing et de vente agrégées hebdomadaires.
column_mappings.controls Facultatif : il peut contenir les facteurs de confusion qui ont un effet causal sur le KPI cible et la métrique média. [] Pour en savoir plus sur la modélisation des données Meridian concernant les variables de contrôle, consultez Variables de contrôle.
column_mappings.geo Colonnes fournissant des informations géographiques. "geo" Pour en savoir plus sur la modélisation des données Meridian, consultez Collecter et organiser vos données.
column_mappings.kpi KPI cible du modèle. "number_of_sales_orders" ou "conversions" . Pour en savoir plus sur la modélisation des données Meridian, consultez Collecter et organiser vos données.
column_mappings.media Tableau de colonnes fournissant les impressions pour le canal. [ "Tiktok_impression",
"Meta_impression",
"YouTube_impression",
"GoogleAds_impression"
]
Pour en savoir plus sur la modélisation des données Meridian, consultez Collecter et organiser vos données.
column_mappings.media_spend Colonnes indiquant les dépenses pour le canal. [ "Tiktok_spend",
"Meta_spend",
"YouTube_spend",
"GoogleAds_spend"
]
Pour en savoir plus sur la modélisation des données Meridian, consultez Collecter et organiser vos données.
column_mappings.population Population pour chaque zone géographique. "population" Pour en savoir plus sur la modélisation des données Meridian, consultez Collecter et organiser vos données.
column_mappings.revenue_per_kpi Revenus moyens d'un KPI. "average_revenue_per_sales_order" ou "" Pour en savoir plus sur la modélisation des données Meridian, consultez Collecter et organiser vos données.
column_mappings.time Colonne "Heure" : début de la semaine (lundi). "time" Pour en savoir plus sur la modélisation des données Meridian, consultez Collecter et organiser vos données.
channel_names Tableau de noms de chaînes. [ "TikTok",
"Meta",
"YouTube",
"GoogleAds"
]
Les noms utilisés pour le canal et l'index doivent correspondre à column_mappings.media et column_mappings.media_spend.
data_processing.kpi_type Il peut s'agir des revenus ou d'un autre KPI non lié aux revenus. Vous pouvez également utiliser un type de KPI non lié aux revenus, même si les revenus sont finalement le KPI. "{USE_CASE_SPECIFIC}" Pour en savoir plus sur la modélisation des données Meridian pour les KPI, consultez KPI.
data_processing.roi_mu Distribution a priori sur le ROI pour chaque canal média. roi_mu (utilisé avec ROI_M dans le notebook). {USE_CASE_SPECIFIC} Pour en savoir plus sur le traitement des données Meridian, assurez-vous de lire et de comprendre les pages suivantes : Configurer le modèle et Documentation de référence de l'API.
data_processing.roi_sigma Distribution a priori sur le ROI pour chaque canal média roi_sigma (utilisée avec ROI_M dans le notebook). {USE_CASE_SPECIFIC} Pour en savoir plus sur le traitement des données Meridian, assurez-vous de lire et de comprendre les pages Configurer le modèle et Documentation de référence de l'API.
data_processing.sample.prior Nombre d'échantillons générés à partir de la distribution a priori. {USE_CASE_SPECIFIC} Pour en savoir plus sur le traitement des données Meridian, assurez-vous de lire et de comprendre les paramétrisations a priori par défaut et la documentation de référence de l'API.
data_processing.sample.posterior.n_chains Nombre de chaînes MCMC. {USE_CASE_SPECIFIC} Pour en savoir plus sur le traitement des données Meridian, assurez-vous de lire et de comprendre les pages Configurer le modèle et Documentation de référence de l'API.
data_processing.sample.posterior.n_adapt Nombre de tirages d'adaptation par chaîne. {USE_CASE_SPECIFIC} Pour en savoir plus sur le traitement des données Meridian, assurez-vous de lire et de comprendre les pages Configurer le modèle et Documentation de référence de l'API.
data_processing.sample.posterior.n_burnin Nombre de tirages en période de chauffe par chaîne. {USE_CASE_SPECIFIC} Pour en savoir plus sur le traitement des données Meridian, assurez-vous de lire et de comprendre les pages Configurer le modèle et Documentation de référence de l'API.
data_processing.sample.posterior.n_keep Nombre de tirages par chaîne à conserver pour l'inférence. {USE_CASE_SPECIFIC} Pour en savoir plus sur le traitement des données Meridian, assurez-vous de lire et de comprendre les pages Configurer le modèle et Documentation de référence de l'API.

Compatibilité avec Meridian

Cortex Framework Data Foundation et Meridian sont publiés séparément. Les notes de version de Cortex Framework fournissent une vue d'ensemble de ses versions. Sur le dépôt GitHub de Meridian, vous pouvez consulter les dernières versions de Meridian disponibles. Les conditions préalables et les recommandations concernant le système Meridian sont disponibles dans le guide de l'utilisateur Meridian.

Les versions de Cortex Framework Data Foundation sont testées avec une version spécifique de Meridian. Vous trouverez le Meridian compatible dans le notebook Jupyter, comme le montre l'image suivante :

Notebook de la version Meridian

Figure 1. Notebook de la version Meridian.

Pour passer à une version plus récente de Meridian, modifiez la ligne correspondante dans le notebook. Notez que des ajustements de code supplémentaires peuvent être nécessaires dans le notebook.

Modèle de données

Cette section décrit le modèle de données CrossMediaSalesInsightsWeeklyAgg à l'aide du diagramme de relations d'entités (ERD).

Cortex pour Meridian repose sur une seule vue, CrossMediaSalesInsightsWeeklyAgg, pour fonctionner. La source de données de cette vue est déterminée par le paramètre de configuration k9.Meridian.salesDataSourceType, qui peut être :

  • BYOD : intégration de données personnalisées.
  • SAP_SALES : données de vente provenant des systèmes SAP.
  • ORACLE_SALES : données de vente provenant des systèmes Oracle EBS.

La section suivante présente les diagrammes de relations entre entités pour CrossMediaForMeridian :

BYOD

CortexForMeridian sans données de vente

Figure 2. CortexForMeridian sans données de ventes.

SAP

CortexForMeridian avec les données de vente SAP

Figure 3. CortexForMeridian avec les données SAP.

OracleEBS

Données de vente Oracle EBS

Figure 4. CortexForMeridian avec les données Oracle EBS.

Le tableau suivant présente le schéma détaillé de la vue CrossMediaSalesInsightsWeeklyAgg, qui fait partie de Cortex pour Meridian :

Colonne Type Description
geo Chaîne Zone géographique utilisée pour agréger toutes les autres valeurs.
temps Chaîne Dimension temporelle utilisée pour agréger toutes les autres valeurs.
Tiktok_impression Integer Nombre de fois où vos annonces ont été diffusées sur TikTok.
Meta_impression Integer Nombre de fois où vos annonces ont été diffusées sur Meta.
YouTube_impression Integer Nombre de fois où vos annonces ont été diffusées sur YouTube.
GoogleAds_impression Integer Nombre de fois où vos annonces ont été diffusées sur Google Ads.
Tiktok_spend Float Montant dépensé pour la publicité sur TikTok.
Meta_spend Float Montant dépensé pour la publicité sur Meta.
YouTube_spend Float Montant dépensé pour la publicité sur YouTube.
GoogleAds_spend Float Montant dépensé pour la publicité sur Google Ads.
target_currency Chaîne Devise cible utilisée pour toutes les colonnes de revenus.
pour les conversions Integer Conversions.
number_of_sales_orders Integer Nombre de bons de commande provenant d'Oracle EBS ou de SAP.
average_revenue_per_sales_order Float Revenu moyen par bon de commande provenant d'Oracle EBS ou de SAP.
population Integer Taille de la population de la zone géographique.

Déploiement

Cette page décrit les étapes à suivre pour déployer Cortex Framework pour Meridian, ce qui permet d'obtenir la meilleure MMM de sa catégorie dans votre environnement Google Cloud .

Pour une démonstration du démarrage rapide, consultez Démonstration du démarrage rapide pour Meridian.

Architecture

Cortex pour Meridian utilise Cortex Framework pour le marketing et les données cross-média combinées aux données de vente. Vous pouvez importer des données de vente depuis Oracle EBS, SAP ou un autre système source.

Le diagramme suivant décrit les principaux composants de Cortex pour Meridian :

Architecture de Cortex pour Meridian

Figure 5. Architecture de Cortex pour Meridian.

Composants et services Meridian

Lors du déploiement de Cortex Framework Data Foundation (voir les conditions préalables au déploiement), vous pouvez activer Cortex pour Meridian en définissant deployMeridian sur true dans le fichier config.json. Cette option lance un pipeline Cloud Build supplémentaire, qui installe les composants et services suivants requis pour Meridian :

  • Vue BigQuery : une vue est créée dans l'ensemble de données de reporting K9 appelé CrossMediaSalesInsightsWeeklyAgg. Cela permet d'interroger les données marketing et de vente à partir de Cortex Framework. L'implémentation réelle de la vue et des sources sous-jacentes dépend de la source de données de vente que vous sélectionnez lors du déploiement.

  • Bucket Cloud Storage : le bucket PROJECT_ID-cortex-meridian contient tous les artefacts nécessaires à Cortex pour Meridian et produits par celui-ci dans les dossiers suivants :

    • configuration : définit les paramètres de Cortex pour Meridian. Il est utilisé par le notebook Colab Enterprise lors de l'exécution du notebook.
    • csv : les données brutes générées par Meridian seront enregistrées ici au format CSV.
    • models : le modèle généré lors de l'exécution de Meridian sera enregistré ici.
    • notebook-run-logs : les copies de notebooks pour chaque exécution et les journaux seront enregistrés ici.
    • notebooks : contient le notebook principal avec le code et la logique permettant d'exécuter Cortex pour Meridian. Ce notebook est destiné à être personnalisé davantage pour répondre à vos besoins et exigences spécifiques.
    • reporting : dossier dans lequel les rapports des exécutions Meridian seront enregistrés. Contient également un modèle HTML permettant de générer un rapport récapitulatif avec des liens vers les résultats des rapports Meridian.
  • Colab Enterprise : Colab Enterprise est un service géré sur Google Cloud qui fournit un environnement sécurisé et collaboratif pour les workflows de data science et de machine learning à l'aide de notebooks Jupyter. Il offre des fonctionnalités telles que l'infrastructure gérée, des contrôles de sécurité de niveau entreprise et l'intégration à d'autres services Google Cloud . Il convient donc aux équipes qui travaillent avec des données sensibles et qui ont besoin d'une gouvernance robuste. Environnement géré pour exécuter le notebook Jupyter.

Cortex pour Meridian utilise Colab Enterprise pour définir un modèle d'exécution avec l'infrastructure requise pour automatiser les exécutions Meridian.

Modèle d'environnement d'exécution Colab Enterprise

Figure 6. Modèle d'exécution pour Meridian dans Colab Enterprise.

Lors du déclenchement du pipeline de bout en bout à l'aide du workflow, une exécution est créée. Une copie du notebook Jupyter actuel sera exécutée à partir de Cloud Storage avec la dernière configuration.

Exécutions

Figure 7 : Exécutions pour Meridian dans Colab Enterprise.
  • Workflow : un workflow Cloud appelé cortex-meridian-execute-notebook orchestre l'exécution de l'intégralité du pipeline Cortex for Meridian. Le workflow appellera l'API Colab Enterprise qui crée un environnement d'exécution basé sur le modèle d'environnement d'exécution, exécute une exécution de notebook avec les configurations actuelles et enregistre enfin tous les résultats dans Cloud Storage.

    workflows.png

    Figure 8 : Workflows pour Meridian.

    Deux options de configuration facultatives sont disponibles pour le workflow :

    1. Si vous pouvez fournir une nouvelle configuration JSON Cortex pour Meridian en entrée du workflow. Si vous le faites, le flux effectuera une sauvegarde de l'ancienne configuration et la mettra à jour avec vos informations. Pour en savoir plus, consultez REPLACE.

    Fournissez une nouvelle configuration JSON Cortex pour Meridian en tant qu'entrée du workflow.

    Figure 9. Exemple de modification et d'exécution d'un nouveau fichier JSON d'entrée.
    1. L'étape pre_notebook_execution est un excellent point de départ pour lancer toutes les tâches supplémentaires que vous devez automatiser avant d'exécuter le notebook. Par exemple, le chargement de données à partir de sources externes à Google Cloud Cortex Framework.
  • Compte de service : un compte de service dédié doit être fourni lors du déploiement. Cela est nécessaire pour exécuter le workflow et le notebook dans Colab Enterprise.

Paramètres de déploiement supplémentaires pour Meridian

Le fichier config.json configure les paramètres requis pour exécuter Meridian avec Cortex Framework. Ce fichier contient les paramètres suivants pour Cortex pour Meridian :

   "k9": {
...
        "deployMeridian": false,
...

    "Meridian":{
            "salesDataSourceType": "",
            "salesDatasetID":"",
            "deploymentType": "",
            "defaultNotebookFile":"meridian_cortex_marketing.ipynb",
            "defaultConfigFile":"cortex_meridian_config.json",
            "gcsBucketNameSuffix": "cortex-meridian",
            "workflow": {
                "template": "create_notebook_execution_run.yaml",
                "name": "cortex-meridian-execute-notebook",
                "region": "us-central1"
            },
            "runnerServiceAccount": "cortex-meridian-colab-runner",
            "colabEnterprise": {
                "region": "us-central1",
                "runtimeTemplateName": "cortex-meridian-template",
                "runtimeMachine_type": "n1-highmem-32",
                "runtimeAcceleratorCoreCount": 1,
                "runtimeAcceleratorType": "NVIDIA_TESLA_T4",
                "executionName": "cortex-meridian-execution",
                "notebookRunLogsFolder": "notebook-run-logs"
            }
        }
}

Le tableau suivant décrit la valeur et la description de chaque paramètre Meridian :

Paramètre Signification Valeur par défaut Description
k9.deployMeridian Déployer ou non Meridian. false Indique si Cortex doit être déployé pour Meridian dans le cadre d'un déploiement Data Foundation.
k9.Meridian.salesDataSourceType Source des données de ventes. - Choisissez entre BYOD, SAP ou OracleEBS.
k9.Meridian.salesDatasetID ID de votre ensemble de données sur les ventes. - ID de votre ensemble de données sur les ventes. Varie en fonction de la configuration de Cortex Data Foundation associée.
k9.Meridian.deploymentType Définit si le déploiement est complet ou incrémentiel. - Choisissez entre initial et incremental.
k9.Meridian.defaultNotebookFile Fichier de notebook Jupyter. meridian_cortex_marketing.ipynb Nom du fichier notebook situé dans le dossier notebooks sur Cloud Storage.
k9.Meridian.defaultConfigFile Fichier de configuration pour exécuter le notebook. cortex_meridian_config.json Il contient la configuration Cortex pour Meridian utilisée lors de l'exécution du notebook. Il doit se trouver dans le dossier configuration sur Cloud Storage.
k9.Meridian.gcsBucketNameSuffix Suffixe du bucket Cortex for Meridian Cloud Storage. cortex-meridian Le nom complet du bucket sera {PROJECT_ID}-cortex-meridian par défaut.
k9.Meridian.workflow.template Modèle du workflow. create_notebook_execution_run.yaml Modèle permettant de créer le workflow. Le workflow permet de démarrer l'exécution d'un notebook.
k9.Meridian.workflow.name Nom du workflow. cortex-meridian-execute-notebook Nom affiché dans le portail Google Cloud pour le workflow.
k9.Meridian.workflow.region Région de déploiement du workflow. us-central1 Région de déploiement du workflow. Il choisit généralement la même que le reste de votre déploiement.
k9.Meridian.runnerServiceAccount Nom du compte de service Cortex pour Meridian. cortex-meridian-colab-runner Nom du compte de service utilisé pour exécuter le workflow et les exécutions Colab Enterprise.
k9.Meridian.colabEnterprise.region Région de déploiement pour les exécutions Colab Enterprise. us-central1 Région de déploiement pour les exécutions Colab Enterprise. Il choisit généralement la même que le reste de votre déploiement.
k9.Meridian.colabEnterprise.runtimeTemplateName Nom du modèle d'exécution Colab Enterprise. cortex-meridian-template Nom du modèle d'exécution Colab Enterprise.
k9.Meridian.colabEnterprise.runtimeMachine_type Type de machine pour l'environnement d'exécution du notebook Colab Enterprise. n1-highmem-32 Type de machine pour l'environnement d'exécution du notebook Colab Enterprise.
k9.Meridian.colabEnterprise.runtimeAcceleratorCoreCount Nombre de cœurs. 1 Nombre de cœurs d'accélérateur GPU pour l'environnement d'exécution du notebook Colab Enterprise.
k9.Meridian.colabEnterprise.runtimeAcceleratorType Type d'accélérateur pour l'environnement d'exécution du notebook Colab Enterprise. NVIDIA_TESLA_T4 Type de GPU.
k9.Meridian.colabEnterprise.executionName Nom de l'exécution pour l'environnement d'exécution du notebook Enterprise Colab. cortex-meridian-execution Nom qui s'affichera dans l'interface Web de Colab Enterprise – Exécutions.
k9.Meridian.colabEnterprise.notebookRunLogsFolder Nom du dossier pour les exécutions du runtime. notebook-run-logs Les exécutions du notebook Colab stockent les journaux et les copies d'exécution du notebook ici.

Workflow

Les workflows servent d'interface principale pour lancer les exécutions Cortex pour Meridian. Un workflow par défaut appelé cortex-meridian-execute-notebook est déployé dans Cortex pour Meridian.

Exécution de notebooks

Pour démarrer une nouvelle exécution Cortex pour Meridian :

  1. Accédez au notebook cortex-meridian-execute-notebook dans Workflows.
  2. Cliquez sur Exécuter pour démarrer une exécution.
  3. Pour les premières exécutions, laissez le champ d'entrée vide afin d'utiliser la configuration par défaut stockée dans le fichier de configuration cortex_meridian_config.json dans Cloud Storage.
  4. Cliquez à nouveau sur Exécuter pour continuer.
  5. Après un bref délai, l'état d'exécution du workflow s'affiche :

    Détails des exécutions

    Figure 10 : Exemple de détails d'exécution.
  6. Suivez la progression de l'exécution du notebook dans Colab Enterprise.

Étapes du workflow

Le workflow cortex-meridian-execute-notebook comprend les étapes suivantes :

Step Sous-étape Description
init - Initialisez les paramètres.
checkInputForConfig - Vérifiez si un nouveau fichier JSON de configuration a été fourni en tant qu'entrée de workflow.
logBackupConfigFileName Consigne le nom du fichier de configuration de la sauvegarde.
backupConfigFile Effectue une sauvegarde du fichier de configuration sur Cloud Storage.
logBackupResult Enregistre le résultat de l'appel à l'API Cloud Storage.
updateGCSConfigFile Mettez à jour le fichier de configuration sur Cloud Storage avec les nouvelles valeurs.
pre_notebook_execution - Cette étape est vide par défaut. Vous pouvez le personnaliser. Par exemple, le chargement de données ou d'autres étapes pertinentes avant d'exécuter le notebook. Pour en savoir plus, consultez Présentation de Workflows et Connecteurs Workflows.
create_notebook_execution_run - Créez l'exécution du notebook Colab Enterprise (à l'aide d'un script shell dans Cloud Build).
notebook_execution_run_started - Affiche le résultat de la saisie semi-automatique.

Personnaliser le workflow d'exécution Meridian

Vous pouvez personnaliser l'exécution de Meridian en fournissant votre propre fichier de configuration JSON dans le champ d'entrée "Workflows" (Workflows) :

  1. Saisissez le code JSON complet de la configuration modifiée dans le champ de saisie.
  2. Le workflow se déroule ensuite comme suit :
    1. Remplacez le fichier cortex_meridian_config.json existant dans Cloud Storage par le fichier JSON fourni.
    2. Créez une sauvegarde du fichier de configuration d'origine dans le répertoire Cloud Storage/configuration.
    3. Le nom du fichier de sauvegarde suivra le format cortex_meridian_config_workflow_backup_workflow_execution_id.json, où workflow_execution_id est un identifiant unique pour l'exécution du workflow actuel (par exemple, cortex_meridian_config_workflow_backup_3e3a5290-fac0-4d51-be5a-19b55b2545de.json).

Présentation des notebooks Jupyter

La fonctionnalité principale de chargement des données d'entrée pour exécuter le modèle Meridian est gérée par le notebook Python meridian_cortex_marketing.ipynb, situé dans le dossier notebooks de votre bucket Cloud Storage.

Le flux d'exécution du notebook comprend les étapes suivantes :

  1. Installez les packages nécessaires (y compris Meridian) et importez les bibliothèques requises.
  2. Chargez les fonctions d'assistance pour interagir avec Cloud Storage et BigQuery.
  3. Récupère la configuration de l'exécution à partir du fichier configuration/cortex_meridian_config.json dans Cloud Storage.
  4. Chargez les données Cortex Framework à partir de la vue "Cortex Framework Data Foundation" dans BigQuery.
  5. Configurez la spécification du modèle Meridian et mappez les modèles de données Cortex Framework Data Foundation pour le marketing et les ventes au schéma d'entrée du modèle Meridian.
  6. Exécute l'échantillonnage Meridian et génère un rapport récapitulatif, enregistré dans Cloud Storage (/reporting).
  7. Exécutez l'optimiseur de budget pour le scénario par défaut et générez un rapport récapitulatif dans Cloud Storage (/reporting).
  8. Enregistrez le modèle dans Cloud Storage (/models).
  9. Enregistrez les résultats CSV dans Cloud Storage (/csv).
  10. Générez un rapport récapitulatif et enregistrez-le dans Cloud Storage (/reporting).

Importer un notebook pour l'exécution et la modification manuelles

Pour personnaliser ou exécuter manuellement le notebook, importez-le depuis Cloud Storage :

  1. Accédez à Colab Enterprise.
  2. Cliquez sur Mes notebooks.
  3. Cliquez sur Importer.
  4. Sélectionnez Cloud Storage comme source d'importation, puis sélectionnez le notebook dans Cloud Storage.
  5. Cliquez sur Importer.
  6. Le notebook se charge et s'ouvre.

Résultats des exécutions de notebooks

Pour examiner les résultats d'exécution d'un notebook, ouvrez une copie complète du notebook avec toutes les sorties de cellule :

  1. Accédez à Exécutions dans Colab Enterprise.
  2. Sélectionnez la région concernée dans le menu déroulant.
  3. À côté de l'exécution du notebook dont vous souhaitez afficher les résultats, cliquez sur Afficher le résultat.
  4. Colab Enterprise ouvre le résultat de l'exécution du notebook dans un nouvel onglet.
  5. Pour afficher le résultat, cliquez sur le nouvel onglet.

Modèle d'exécution

Google Cloud Colab Enterprise utilise des modèles d'exécution pour définir des environnements d'exécution préconfigurés. Un modèle d'exécution prédéfini, adapté à l'exécution du notebook Meridian, est inclus dans le déploiement Cortex pour Meridian. Ce modèle est utilisé automatiquement pour créer des environnements d'exécution pour les exécutions de notebooks.

Modèle d'exécution

Figure 11 : Modèle d'exécution.

Si nécessaire, vous pouvez créer manuellement des modèles d'exécution supplémentaires.