Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Configurar conjuntos de dados externos
Esta página descreve uma etapa opcional para configurar conjuntos de dados externos para a implantação da Data Foundation do Cortex Framework. Alguns casos de uso avançados podem exigir conjuntos de dados externos para complementar um sistema empresarial de registro. Além das trocas externas consumidas pelo compartilhamento do BigQuery (antigo Analytics Hub), alguns conjuntos de dados podem precisar de métodos personalizados ou adaptados para ingerir e combinar dados com os modelos de relatórios.
Para ativar os seguintes conjuntos de dados externos, defina k9.deployDataset como True se quiser que o conjunto de dados seja implantado.
Configure os grafos acíclicos dirigidos (DAGs) para os conjuntos de dados externos compatíveis seguindo estas etapas:
Agenda de feriados:esse DAG recupera as datas especiais de
PyPi Holidays.
Ajuste a lista de países, a lista de anos e outros parâmetros de DAG para extrair feriados em holiday_calendar.ini.
Tendências: esse DAG recupera o interesse ao longo do tempo para um conjunto específico de termos das tendências da Pesquisa Google.
Os termos podem ser configurados em trends.ini.
Após uma execução inicial, ajuste o start_date para 'today 7-d' em
trends.ini.
Familiarize-se com os resultados dos diferentes termos para ajustar os parâmetros.
Recomendamos particionar listas grandes em várias cópias desse DAG
executadas em momentos diferentes.
Para mais informações sobre a biblioteca usada, consulte Pytrends.
Esse conjunto de dados precisa ser criado na mesma região que os outros conjuntos antes da execução da implantação. Se os conjuntos de dados não estiverem disponíveis na sua região, siga estas instruções para transferir os dados para a região escolhida:
Quando solicitado, mantenha noaa_global_forecast_system como o nome do conjunto de dados. Se necessário, ajuste o nome do conjunto de dados e da tabela nas cláusulas FROM em weather_daily.sql.
Repita a pesquisa de página "Detalhes do app" para o conjunto de dados OpenStreetMap Public Dataset.
Ajuste as cláusulas FROM que contêm:
BigQuery-public-data.geo_openstreetmap.planet_layers em
postcode.sql.
Insights de sustentabilidade e ESG: o Cortex Framework combina dados de desempenho de fornecedores da SAP com insights avançados de ESG para comparar a performance de entrega, a sustentabilidade e os riscos de maneira mais holística em operações globais. Para mais informações, consulte a fonte de dados da Dun & Bradstreet.
Considerações gerais
O compartilhamento
está disponível apenas em locais da UE e dos EUA,
e alguns conjuntos de dados, como a previsão global da NOAA, são oferecidos
em um único local.
Se você estiver segmentando um local diferente daquele disponível para o conjunto de dados necessário, recomendamos criar uma consulta programada para copiar os novos registros do conjunto de dados vinculado ao compartilhamento, seguida de um serviço de transferência para copiar esses novos registros em um conjunto de dados localizado no mesmo local ou região do restante da implantação.
Em seguida, ajuste os arquivos SQL.
Antes de copiar esses DAGs para o Cloud Composer, adicione os módulos Python necessários como dependências:
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[[["\u003cp\u003eThis page provides instructions for configuring optional external datasets within the Cortex Framework Data Foundation deployment, which can be utilized to enhance enterprise systems of record with external data.\u003c/p\u003e\n"],["\u003cp\u003eConfiguring external datasets involves setting \u003ccode\u003ek9.deployDataset\u003c/code\u003e to \u003ccode\u003eTrue\u003c/code\u003e and setting up Directed Acyclic Graphs (DAGs) for each supported dataset like the holiday calendar, search trends, weather, and sustainability/ESG data.\u003c/p\u003e\n"],["\u003cp\u003eThe Holiday Calendar DAG retrieves special dates from PyPi Holidays, allowing customization of countries and years through the \u003ccode\u003eholiday_calendar.ini\u003c/code\u003e file.\u003c/p\u003e\n"],["\u003cp\u003eThe Trends DAG fetches "Interest Over Time" data from Google Search Trends, with configurable terms and date ranges in \u003ccode\u003etrends.ini\u003c/code\u003e, and recommends multiple copies for large term lists.\u003c/p\u003e\n"],["\u003cp\u003eThe Weather DAG uses public data from \u003ccode\u003eBigQuery-public-data.geo_openstreetmap.planet_layers\u003c/code\u003e and the \u003ccode\u003enoaa_global_forecast_system\u003c/code\u003e from Analytics Hub, both of which need to be available in the same region as other datasets.\u003c/p\u003e\n"]]],[],null,["# Configure external datasets\n===========================\n\nThis page describes an optional step to configure external datasets for\nthe Cortex Framework Data Foundation deployment. Some advanced\nuse cases might require external datasets to complement an enterprise system of\nrecord. In addition to external exchanges consumed from\n[BigQuery sharing (formerly Analytics Hub)](/bigquery/docs/analytics-hub-introduction),\nsome datasets might need custom or tailored methods to ingest data\nand join them with the reporting models.\n\nTo enable the following external datasets, set `k9.deployDataset` to `True`\nif you want Dataset to be deployed.\n\nConfigure the Directed Acyclic Graphs (DAGs) for the supported external datasets\nfollowing these steps:\n\n1. **Holiday Calendar:** This DAG retrieves the special dates from\n [PyPi Holidays](https://pypi.org/project/holidays/).\n\n | **Note:** If using sample data, keep default values.\n 1. Adjust the list of countries, the list of years, as well as other DAG parameters to retrieve holidays in [`holiday_calendar.ini`](https://github.com/GoogleCloudPlatform/cortex-data-foundation/blob/main/src/k9/src/holiday_calendar/holiday_calendar.ini).\n2. **Trends** : This DAG retrieves *Interest Over Time* for a specific set\n of terms from [Google Search trends](https://trends.google.com/trends/).\n The terms can be configured in [`trends.ini`](https://github.com/GoogleCloudPlatform/cortex-data-foundation/blob/main/src/k9/src/trends/trends.ini).\n\n 1. After an initial run, adjust the `start_date` to `'today 7-d'` in [`trends.ini`](https://github.com/GoogleCloudPlatform/cortex-data-foundation/blob/main/src/k9/src/trends/trends.ini).\n 2. Get familiarized with the results coming from the different terms to tune parameters.\n 3. We recommend partitioning large lists to multiple copies of this DAG running at different times.\n 4. For more information about the underlying library being used, see [Pytrends](https://pypi.org/project/pytrends/).\n3. **Weather** : By default, this DAG uses the publicly available\n test dataset [`BigQuery-public-data.geo_openstreetmap.planet_layers`](https://console.cloud.google.com/bigquery/analytics-hub/exchanges(analyticshub:search)?queryText=open%20street%20map).\n The query also relies on an NOAA dataset only available\n through Sharing: [`noaa_global_forecast_system`](https://console.cloud.google.com/bigquery/analytics-hub/exchanges(analyticshub:search)?queryText=noaa%20global%20forecast).\n\n **This dataset needs to be created in the same region as the other datasets prior to executing deployment**. If the datasets aren't available in your region, you can continue\n with the following instructions to transfer the data into the chosen region:\n 1. Go to the [**Sharing (Analytics Hub)**](https://console.cloud.google.com/bigquery/analytics-hub) page.\n 2. Click **Search listings**.\n 3. Search for **NOAA Global Forecast System**.\n 4. Click **Subscribe**.\n 5. When prompted, keep `noaa_global_forecast_system` as the name of the dataset. If needed, adjust the name of the dataset and table in the FROM clauses in `weather_daily.sql`.\n 6. Repeat the listing search for Dataset `OpenStreetMap Public Dataset`.\n 7. Adjust the `FROM` clauses containing: `BigQuery-public-data.geo_openstreetmap.planet_layers` in `postcode.sql`.\n4. **Sustainability and ESG insights** : Cortex Framework combines\n SAP supplier performance data with advanced ESG insights to compare\n delivery performance, sustainability and risks more holistically across\n global operations. For more information,\n see the [Dun \\& Bradstreet data source](/cortex/docs/dun-and-bradstreet).\n\nGeneral considerations\n----------------------\n\n- [Sharing](/bigquery/docs/analytics-hub-introduction)\n is only supported in EU and US locations,\n and some datasets, such as NOAA Global Forecast, are only offered\n in a single multi location.\n\n If you are targeting a location different\n from the one available for the required dataset, we recommended to create\n a [scheduled query](/bigquery/docs/scheduling-queries)\n to copy the new records from the Sharing\n linked dataset followed by a [transfer service](/bigquery/docs/dts-introduction)\n to copy those new records into a dataset located\n in the same location or region as the rest of your deployment.\n You then need to adjust the SQL files.\n- Before copying these DAGs to Cloud Composer, add the required\n python modules [as dependencies](/composer/docs/how-to/using/installing-python-dependencies#options_for_managing_python_packages):\n\n Required modules:\n pytrends~=4.9.2\n holidays"]]