Questa guida fornisce una panoramica di ciò che è necessario per eseguire SAP HANA su Google Cloude fornisce dettagli che puoi utilizzare quando pianifichi l'implementazione di un nuovo sistema SAP HANA.
Per informazioni dettagliate su come eseguire il deployment di SAP HANA su Google Cloud, consulta:
- Per i deployment di scalabilità verticale su un singolo host e di scalabilità orizzontale su più host, consulta:
- Per i sistemi scalabili orizzontalmente con deployment di failover automatico dell'host, consulta:
- Per le configurazioni dei cluster ad alta disponibilità con scalabilità verticale, consulta:
- Per le configurazioni di cluster ad alta disponibilità con scalabilità orizzontale, consulta:
Informazioni su SAP HANA su Google Cloud
SAP HANA è un database relazionale in memoria orientato alle colonne che fornisce analisi ad alte prestazioni ed elaborazione dei dati in tempo reale. I clienti possono sfruttare la facilità di provisioning, l'infrastruttura Google Cloud altamente scalabile e ridondante Google Cloudper eseguire i carichi di lavoro business critical. Google Cloudfornisce un insieme di asset fisici, come computer e dischi rigidi, e risorse virtuali, come le macchine virtuali (VM) Compute Engine, situate nei data center di Google in tutto il mondo.
Quando esegui il deployment di SAP HANA su Google Cloud, il deployment viene eseguito su macchine virtuali in esecuzione su Compute Engine. Le VM di Compute Engine forniscono dischi permanenti, che funzionano in modo simile ai dischi fisici di un computer o di un server, ma vengono gestiti automaticamente da Compute Engine per garantire la ridondanza dei dati e prestazioni ottimizzate.
Google Cloud basics
Google Cloud è composto da molti servizi e prodotti basati su cloud. Quando esegui prodotti SAP su Google Cloud, utilizzi principalmente i servizi basati su IaaS offerti tramite Compute Engine e Cloud Storage, nonché alcune funzionalità a livello di piattaforma, come gli strumenti.
Per concetti e terminologia importanti, consulta la panoramica della piattaforma.Google Cloud Questa guida duplica alcune informazioni della panoramica per comodità e contesto.
Per una panoramica delle considerazioni che le organizzazioni di livello aziendale devono prendere in considerazione quando vengono eseguite su Google Cloud, consulta il Google Cloud Well-Architected Framework.
Interazione con Google Cloud
Google Cloud offre tre modi principali per interagire con la piattaforma e le tue risorse nel cloud:
- La Google Cloud console, che è un'interfaccia utente basata sul web.
- Lo strumento a riga di comando
gcloud
, che fornisce un superset delle funzionalità offerte dalla console Google Cloud . - Librerie client, che forniscono API per l'accesso ai servizi e la gestione delle risorse. Le librerie client sono utili per creare strumenti personalizzati.
Google Cloud servizi
I deployment SAP in genere utilizzano alcuni o tutti i seguenti Google Cloud servizi:
Servizio | Descrizione |
---|---|
Networking VPC |
Collega le tue istanze VM tra loro e a internet. Ogni istanza VM è membro di una rete legacy con un singolo intervallo IP globale o di una rete subnet consigliata, in cui l'istanza VM è membro di una singola subnet che è membro di una rete più grande. Tieni presente che una rete Virtual Private Cloud (VPC) non può estendersi Google Cloud ai progetti, ma un Google Cloud progetto può avere più reti VPC. Per connettere risorse di più progetti a una rete VPC comune, puoi utilizzare il VPC condiviso, in modo che le risorse possano comunicare tra loro in modo sicuro ed efficiente utilizzando indirizzi IP interni di quella rete. Per informazioni su come eseguire il provisioning di un VPC condiviso, inclusi requisiti, passaggi di configurazione e utilizzo, consulta Provisioning del VPC condiviso. |
Compute Engine | Crea e gestisce VM con lo stack software e il sistema operativo che preferisci. |
Persistent Disk e Hyperdisk |
Puoi utilizzare Persistent Disk e Google Cloud Hyperdisk:
|
Google Cloud console |
Uno strumento basato su browser per la gestione delle risorse Compute Engine. Utilizza un modello per descrivere tutte le risorse e le istanze Compute Engine di cui hai bisogno. Non devi creare e configurare singolarmente le risorse o capire le dipendenze perché la console Google Cloud lo fa per te. |
Cloud Storage | Puoi archiviare i backup del database SAP in Cloud Storage per una maggiore durabilità e affidabilità, con la replica. |
Cloud Monitoring |
Offre visibilità su deployment, prestazioni, uptime e integrità di Compute Engine, rete e dischi di archiviazione permanente. Monitoring raccoglie metriche, eventi e metadati da Google Cloud e li utilizza per generare insight tramite dashboard, grafici e avvisi. Puoi monitorare le metriche di calcolo senza costi tramite Monitoring. |
IAM |
Fornisce un controllo unificato delle autorizzazioni per le risorse Google Cloud . IAM ti consente di controllare chi può eseguire operazioni del control plane sulle tue VM, inclusa la creazione, la modifica e l'eliminazione di VM e dischi di archiviazione permanente, nonché la creazione e la modifica di reti. |
Prezzi e quote
Puoi utilizzare il Calcolatore prezzi per stimare i costi di utilizzo. Per ulteriori informazioni sui prezzi, consulta le pagine Prezzi di Compute Engine, Prezzi di Cloud Storage e Prezzi di Google Cloud Observability.
Google Cloud sono soggette a quote. Se prevedi di utilizzare macchine con CPU elevata o memoria elevata, potresti dover richiedere una quota aggiuntiva. Per ulteriori informazioni, consulta la pagina Quote delle risorse di Compute Engine.
Conformità e controlli di sovranità
Se richiedi che il tuo workload SAP venga eseguito in conformità con i requisiti di residenza dei dati, controllo dell'accesso, personale di assistenza o normativi, devi pianificare l'utilizzo di Assured Workloads, un servizio che ti aiuta a eseguire workload sicuri e conformi su Google Cloud senza compromettere la qualità della tua esperienza cloud. Per ulteriori informazioni, vedi Controlli di conformità e sovranità per SAP su Google Cloud.
Requisiti delle risorse
Questa sezione fornisce indicazioni per aiutarti a identificare le risorse necessarie per eseguire SAP HANA su Google Cloud.
Tipi di macchina certificati per SAP HANA
Per SAP HANA, SAP certifica solo un sottoinsieme dei tipi di macchina disponibili da Google Cloud.
I tipi di macchina certificati da SAP per SAP HANA includono macchine virtuali (VM) Compute Engine e macchine bare metal Bare Metal Solution.
Anche le configurazioni personalizzate dei tipi di VM n1-
e n2-highmem
per uso generico sono certificate da SAP. Per saperne di più, consulta
Tipi di VM personalizzati certificati per SAP HANA.
Per i sistemi operativi certificati per l'uso con HANA su ogni tipo di macchina, consulta Sistemi operativi certificati per SAP HANA.
Alcuni tipi di macchine non sono disponibili in tutte le regioni Google Cloud. Per verificare la disponibilità regionale di una macchina virtuale Compute Engine, consulta Regioni e zone disponibili. Per le macchine Bare Metal Solution certificate per SAP HANA, consulta Disponibilità regionale delle macchine Bare Metal Solution per SAP HANA.
SAP elenca i tipi di macchina certificati per SAP HANA in Certified and Supported SAP HANA Hardware Directory.
Per saperne di più sui diversi tipi di VM di Compute Engine e sui relativi casi d'uso, consulta Tipi di macchine.
VM Compute Engine certificate per SAP HANA
La tabella seguente mostra le VM Compute Engine certificate da SAP per SAP HANA:
La tabella seguente mostra tutti i tipi di macchine Google Cloud certificati da SAP per l'utilizzo in produzione di SAP HANA.
La tabella non include i tipi di macchina certificati da SAP per SAP Business One su SAP HANA. Per i tipi di macchina certificati da SAP per SAP HANA con SAP Business One, consulta Applicazioni SAP certificate su Google Cloud.
Tipi di macchine | vCPU | Memoria | Sistema operativo | Piattaforma CPU | Tipo di applicazione | Note |
---|---|---|---|---|---|---|
Tipi di VM N1 per uso generico con memoria elevata | ||||||
n1-highmem-32 |
32 | 208 GB | RHEL, SUSE |
Intel Broadwell | OLAP o OLTP | Archiviazione a blocchi: dischi permanenti Compute Engine o, solo per lo scale up, Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
n1-highmem-64 |
64 | 416 GB | RHEL, SUSE | Intel Broadwell | OLAP o OLTP | Archiviazione a blocchi: dischi permanenti Compute Engine o, solo per lo scale up, Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
n1-highmem-96 |
96 | 624 GB | RHEL, SUSE | Intel Skylake | OLAP o OLTP | Archiviazione a blocchi: dischi permanenti Compute Engine o, solo per lo scale up, Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
Tipi di VM N2 con memoria elevata e per uso generico | ||||||
n2-highmem-32 |
32 | 256 GB | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine o Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
n2-highmem-48 |
48 | 384 GB | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine o Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
n2-highmem-64 |
64 | 512 GB | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine o Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
n2-highmem-80 |
80 | 640 GB | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
n2-highmem-96 |
96 | 768 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
n2-highmem-128 |
128 | 864 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
Tipi di VM C3 per uso generico | ||||||
c3-standard-44 |
44 | 176 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced, o Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
c3-highmem-44 |
44 | 352 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced, o Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
c3-highmem-88 |
88 | 704 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
c3-highmem-176 |
176 | 1408 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
Tipi di macchine bare metal C3 per uso generico | ||||||
c3-highmem-192-metal |
192 | 1536 GB | RHEL, SUSE | Intel Sapphire Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk bilanciato. |
Tipi di VM C4 per uso generico | ||||||
c4-highmem-32 |
32 | 248 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: Hyperdisk Balanced o Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
c4-highmem-48 |
48 | 372 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: Hyperdisk Balanced o Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
c4-highmem-96 |
96 | 744 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Scalabilità verticale. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
c4-highmem-192 |
192 | 1488 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Scalabilità verticale. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
Tipi di VM ottimizzati per la memoria M1 | ||||||
m1-megamem-96 |
96 | 1433 GB | RHEL, SUSE | Intel Skylake | OLAP o OLTP | OLAP: esegui lo scale up o lo scale out fino a 16 nodi. OLTP: solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk bilanciato o, solo per lo scale up OLTP, Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
m1-ultramem-40 |
40 | 961 GB | RHEL, SUSE | Intel Broadwell | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
m1-ultramem-80 |
80 | 1922 GB | RHEL, SUSE | Intel Broadwell | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
m1-ultramem-160 |
160 | 3844 GB | RHEL, SUSE | Intel Broadwell | OLAP o OLTP | Carichi di lavoro OLAP da 2 TB certificati per lo scale up e lo scale out fino a 16 nodi. Sono supportati carichi di lavoro OLAP fino a 4 TB con dimensionamento basato sul workload. Carichi di lavoro OLTP certificati solo per lo scale up. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk bilanciato o, solo per lo scale up OLTP, Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
Tipi di VM ottimizzate per la memoria M2 | ||||||
m2-megamem-416 |
416 | 5888 GB | RHEL, SUSE | Intel Cascade Lake | OLAP o OLTP | Carichi di lavoro OLAP certificati per lo scale up e lo scale out fino a 16 nodi. I carichi di lavoro OLTP sono certificati per lo scale up o lo scale out fino a 4 nodi. La certificazione per lo scale out OLTP include SAP S/4HANA. Per lo scale out con S/4HANA, consulta la nota SAP 2408419. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk bilanciato o, solo per lo scale up, Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
m2-ultramem-208 |
208 | 5888 GB | RHEL, SUSE | Intel Cascade Lake | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
m2-ultramem-416 |
416 | 11.776 GB | RHEL, SUSE | Intel Cascade Lake-SP | OLAP o OLTP | I carichi di lavoro OLAP sono certificati con il dimensionamento basato sul carico di lavoro per
lo scale up o lo scale out fino a 16 nodi. I carichi di lavoro OLTP sono certificati per lo scale up o lo scale out fino a 4 nodi. La certificazione per lo scale out OLTP include SAP S/4HANA. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk bilanciato, oppure, solo per lo scale up, Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). Per lo scale out con S/4HANA, consulta la nota SAP 2408419. |
m2-hypermem-416 |
416 | 8832 GB | RHEL, SUSE | Intel Cascade Lake | Solo OLTP | I carichi di lavoro OLTP sono certificati per lo scale up o lo scale out fino a 4 nodi.
La certificazione per lo scale out OLTP include SAP S/4HANA. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk bilanciato, oppure, solo per lo scale up, Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). Per lo scale out con S/4HANA, consulta la nota SAP 2408419. |
Tipi di VM ottimizzate per la memoria M3 | ||||||
m3-ultramem-32 |
32 | 976 GB | RHEL, SUSE | Intel Ice Lake | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Balanced o Google Cloud NetApp Volumes (il livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
m3-ultramem-64 |
64 | 1952 GB | RHEL, SUSE | Intel Ice Lake | Solo OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
m3-ultramem-128 |
128 | 3904 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | I carichi di lavoro OLAP sono certificati con il dimensionamento basato sul carico di lavoro per lo scale up. I carichi di lavoro OLTP sono certificati per lo scale up. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
m3-megamem-64 |
64 | 976 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk Balanced o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA). |
m3-megamem-128 |
128 | 1952 GB | RHEL, SUSE | Intel Ice Lake | OLAP o OLTP | Aumenta o riduci lo scale up fino a 16 nodi. Archiviazione a blocchi: dischi permanenti Compute Engine, Hyperdisk Extreme, Hyperdisk bilanciato o Google Cloud NetApp Volumes (livello di servizio Premium o Extreme per i volumi di dati e log SAP HANA) (solo scalabilità verticale). |
Tipi di VM ottimizzate per la memoria M4 | ||||||
m4-megamem-28 |
28 | 372 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: Hyperdisk bilanciato. |
m4-megamem-56 |
56 | 744 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: Hyperdisk bilanciato. |
m4-megamem-112 |
112 | 1488 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verticale. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk bilanciato. |
m4-megamem-224 |
224 | 2976 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Aumenta o riduci le risorse fino a 8 nodi Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk bilanciato. |
m4-ultramem-56 |
56 | 1488 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verticale. I carichi di lavoro OLAP sono certificati con il dimensionamento basato sul carico di lavoro. Archiviazione a blocchi: Hyperdisk bilanciato. |
m4-ultramem-112 |
112 | 2976 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verticale. I carichi di lavoro OLAP sono certificati con il dimensionamento basato sul carico di lavoro. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk bilanciato. |
m4-ultramem-224 |
224 | 5952 GB | RHEL, SUSE | Intel Emerald Rapids | OLAP o OLTP | Solo scalabilità verticale. I carichi di lavoro OLAP sono certificati con il dimensionamento basato sul carico di lavoro. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk bilanciato. |
Tipi di macchine bare metal X4 ottimizzate per la memoria | ||||||
x4-megamem-960-metal |
960 | 16.384 GB | SUSE | Intel Sapphire Rapids | OLAP o OLTP |
I workload OLTP sono certificati per lo scale out fino a 4 nodi e lo scale up. I carichi di lavoro OLAP sono certificati per lo scale out fino a 8 nodi e lo scale up. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced |
x4-megamem-1440-metal |
1440 | 24.576 GB | SUSE | Intel Sapphire Rapids | OLAP o OLTP |
I workload OLTP sono certificati per lo scale out fino a 4 nodi e lo scale up. I carichi di lavoro OLAP sono certificati per lo scale out fino a 8 nodi e lo scale up. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced |
x4-megamem-1920-metal |
1920 | 32.768 GB | SUSE | Intel Sapphire Rapids | OLAP o OLTP |
I workload OLTP sono certificati per lo scale out fino a 4 nodi e lo scale up. I carichi di lavoro OLAP sono certificati per lo scale out fino a 8 nodi e lo scale up. Archiviazione a blocchi: Hyperdisk Extreme, Hyperdisk Balanced |
Macchine Bare Metal Solution certificate per SAP HANA
La seguente tabella mostra le macchine Bare Metal Solution certificate da SAP per SAP HANA esclusivamente in un'architettura a tre livelli.
Per vedere in quali regioni sono disponibili questi tipi di macchine certificati, consulta Disponibilità regionale delle macchine Bare Metal Solution per SAP HANA.
Tipo di macchina Bare Metal Solution | CPU Cores | vCPU | Socket | Memoria | Piattaforma CPU | Sistema operativo | Tipo di applicazione | Note |
---|---|---|---|---|---|---|---|---|
Tipi di macchine Bare Metal Solution ottimizzati per la memoria O2 | ||||||||
o2-ultramem-672-metal |
336 | 672 | 12 | 18 TB | Intel Cascade Lake | RHEL, SUSE | Solo OLTP | Esegui lo scale up solo in un'architettura a tre livelli. Taglie standard. |
o2-ultramem-896-metal |
448 | 896 | 16 | 24 TB | Intel Cascade Lake | RHEL, SUSE | Solo OLTP | Esegui lo scale up solo in un'architettura a tre livelli. Taglie standard. |
Tipi di macchina personalizzati certificati per SAP HANA
La tabella seguente mostra i tipi di macchine personalizzate Compute Engine certificati da SAP per l'utilizzo in produzione di SAP HANA su Google Cloud.
SAP certifica solo un sottoinsieme dei tipi di macchine personalizzate disponibili in Compute Engine.
I tipi di macchine personalizzate sono soggetti a regole di personalizzazione definite da Compute Engine. Le regole variano a seconda del tipo di macchina che stai personalizzando. Per le regole di personalizzazione complete, consulta Creare un'istanza VM personalizzata.
Tipo di macchina base | vCPU | Memoria (GB) | Sistema operativo | Piattaforme CPU |
---|---|---|---|---|
n1-highmem | Un numero di vCPU compreso tra 32 e 64 divisibile per 2. | 6,5 GB per ogni vCPU | RHEL, SUSE | Intel Broadwell |
N2-highmem (solo scalabilità verticale) | Su Intel Ice Lake, un numero di vCPU da 32 a 80 divisibile
per 4. Su Intel Cascade Lake, un numero di vCPU da 32 a 80 divisibile per 4. |
Fino a 8 GB per vCPU | RHEL, SUSE | Intel Ice Lake, Intel Cascade Lake |
Disponibilità a livello di regione delle macchine Bare Metal Solution per SAP HANA
La seguente tabella mostra le regioni Google Cloud attuali che supportano SAP HANA su Bare Metal Solution.
Regione | Località |
---|---|
europe-west3 |
Francoforte, Germania, Europa |
europe-west4 |
Eemshaven, Paesi Bassi, Europa |
us-central1 |
Council Bluffs, Iowa, USA, Nord America |
us-east4 |
Ashburn, Virginia, USA, Nord America |
Se non vedi la regione di cui hai bisogno nella tabella precedente, contatta il team di vendita.Google Cloud
Single-tenancy
Puoi eseguire il deployment di SAP HANA su un nodo single-tenant. Un nodo single-tenant è un server fisico Compute Engine dedicato all'hosting delle VM nel tuo deployment SAP HANA.
I nodi single-tenant ti consentono di mantenere le VM SAP HANA fisicamente separate dalle VM utilizzate da altri deployment nel tuo progettoGoogle Cloud o dalle VM in altri progetti Google Cloud . In questo modo puoi controllare l'utilizzo dell'hardware sottostante. Inoltre, utilizzando un nodo single-tenant per il deployment di SAP HANA, puoi soddisfare i requisiti di sicurezza o conformità con i workload che richiedono l'isolamento fisico da altri workload o VM.
Per saperne di più sulla modalità single-tenant, consulta Panoramica della modalità single-tenant.
Architettura di deployment per i nodi single-tenant
Il seguente diagramma mostra le architetture per gli scale up SAP HANA e i deployment HA di scale up SAP HANA su Google Cloud che utilizzano la tenancy esclusiva:
Il seguente diagramma mostra l'architettura per un deployment di scalabilità orizzontale multihost SAP HANA su Google Cloud che utilizza la tenancy esclusiva senza anti-affinità dei nodi:
Il seguente diagramma mostra l'architettura per un deployment HA di scalabilità orizzontale SAP HANA su Google Cloud che utilizza la tenancy esclusiva senza anti-affinità dei nodi:
Supporto dell'Automation per i nodi single-tenant
Puoi automatizzare il deployment di un nodo single-tenant per le seguenti architetture:
- Scalabilità verticale di SAP HANA
- Scalabilità verticale di SAP HANA con alta disponibilità
- Scalabilità orizzontale multihost di SAP HANA senza anti-affinità dei nodi
- Scalabilità orizzontale di SAP HANA con alta disponibilità senza anti-affinità dei nodi
Per questo, utilizza la versione 1.3.704310921
o successive dei moduli Terraform sap_hana
e sap_hana_ha
forniti da Google Cloud.
Quando utilizzi questi moduli Terraform per eseguire il deployment di SAP HANA con un nodo sole-tenant, Terraform esegue il provisioning delle seguenti risorse:
- Un template di nodo single-tenant basato sul tipo di nodo specificato. Il provisioning viene eseguito nella regione corrispondente alla zona specificata.
- Un gruppo di nodi single-tenant per ogni nodo SAP HANA nel deployment. Il gruppo di nodi viene creato utilizzando il template di nodo di cui è stato eseguito il provisioning nell'ambito dello stesso deployment.
- Uno o più nodi single-tenant, a seconda dell'architettura di deployment che scegli, su cui vengono eseguite le VM di Compute Engine.
Per visualizzare un diagramma che mostra questa architettura di deployment, consulta Architettura di deployment per i nodi single-tenant. Per saperne di più sull'automazione del deployment di un nodo single-tenant per SAP HANA, consulta le seguenti guide al deployment:
- Terraform: guida al deployment dello scale-up di SAP HANA
- Terraform: guida alla configurazione del cluster ad alta disponibilità con scalabilità verticale di SAP HANA
- Terraform: guida alla configurazione del cluster ad alta disponibilità di scalabilità orizzontale SAP HANA per SLES
Configurazione della memoria
Le opzioni di configurazione della memoria sono determinate dal tipo di istanza VM di Compute Engine che scegli. Per saperne di più, consulta la tabella Tipi di macchina certificati per SAP HANA.
Configurazione di rete
Le funzionalità di rete della VM Compute Engine sono determinate dalla famiglia di macchine e non dalla scheda di interfaccia di rete (NIC) o dall'indirizzo IP.
In base al tipo di macchina, la tua istanza VM è in grado di raggiungere un throughput di rete di 2-32 Gbps. Alcuni tipi di macchina supportano anche velocità effettive fino a 100 Gbps, il che richiede l'utilizzo del tipo di interfaccia Google Virtual NIC (gVNIC) con una configurazione di rete Tier_1. La possibilità di raggiungere queste velocità di trasmissione dipende ulteriormente dalla direzione del traffico e dal tipo di indirizzo IP di destinazione.
Le interfacce di rete delle VM di Compute Engine sono supportate da un'infrastruttura di rete ridondante e resiliente che utilizza componenti di rete fisici e software-defined. Queste interfacce ereditano la ridondanza e la resilienza della piattaforma sottostante. È possibile utilizzare più NIC virtuali per la separazione del traffico, ma ciò non offre ulteriori vantaggi in termini di resilienza o prestazioni.
Una singola NIC fornisce le prestazioni necessarie per i deployment SAP HANA su Compute Engine. Il tuo caso d'uso, i requisiti di sicurezza o le preferenze particolari potrebbero richiedere anche interfacce aggiuntive per separare il traffico, ad esempio il traffico internet, il traffico di replica del sistema SAP HANA interno o altri flussi che potrebbero trarre vantaggio da regole specifiche delle policy di rete. Ti consigliamo di utilizzare la crittografia del traffico offerta dall'applicazione e di proteggere l'accesso alla rete seguendo una policy firewall con privilegio minimo per limitare l'accesso.
A seconda dei tuoi requisiti, puoi migliorare la sicurezza in diversi modi, come descritto nella Guida alla sicurezza di SAP HANA per la piattaforma SAP HANA. Ad esempio, puoi implementare l'isolamento di rete, ma offre una sicurezza inferiore senza crittografia e senza elenchi consentiti specifici per porte e IP.
Valuta la necessità di separare il traffico in anticipo nell'ambito della progettazione della rete e alloca NIC aggiuntive quando esegui il deployment delle VM. Devi collegare ogni interfaccia di rete a una rete Virtual Private Cloud diversa. La scelta del numero di interfacce di rete dipende dal livello di isolamento richiesto, con un massimo di 8 interfacce consentite per le VM con 8 o più vCPU.
Ad esempio, puoi definire una rete Virtual Private Cloud per i client dell'applicazione SAP HANA SQL (server delle applicazioni SAP NetWeaver, applicazioni personalizzate e così via) e una rete separata per il traffico tra server, ad esempio la replica del sistema SAP HANA. Tieni presente che un numero eccessivo di segmenti potrebbe complicare la gestione e la risoluzione dei problemi di rete. Se cambi idea in un secondo momento, puoi utilizzare le immagini macchina di Compute Engine per ricreare l'istanza VM conservando tutta la configurazione, i metadati e i dati associati.
Per ulteriori informazioni, consulta Panoramica del networking per le VM, Interfacce di rete multiple e Larghezza di banda di rete della VM.
Sistemi operativi certificati per SAP HANA
La seguente tabella mostra i sistemi operativi Red Hat Enterprise Linux (RHEL) e SUSE Linux Enterprise Server (SLES) certificati da SAP per l'utilizzo in produzione con SAP HANA suGoogle Cloud.
Ad eccezione di quanto indicato nella tabella, ogni sistema operativo è supportato con SAP HANA su tutti i tipi di VM Compute Engine certificati.
Per informazioni sullo stato di supporto attuale di ciascun sistema operativo e su quali sistemi operativi sono disponibili da Google Cloud, vedi Supporto dei sistemi operativi per SAP HANA su Google Cloud.
Per informazioni da SAP sui sistemi operativi supportati da SAP con SAP HANA su Google Cloud, vai a Certified and Supported SAP HANA Hardware Directory, fai clic sul tipo di macchina richiesto e poi su Sistema operativo.
La tabella seguente non include:
- Versioni del sistema operativo certificate che non sono più supportate.
- Versioni del sistema operativo non specifiche per SAP.
Sistema operativo | Versione | Tipi di macchine non supportati |
---|---|---|
RHEL per SAP | 9.4 Nota |
x4-megamem
|
9.2 Nota |
x4-megamem C3-metal |
|
9.0 Nota |
x4-megamem C3-metal |
|
8.10 |
x4-megamem m4-megamem m4-ultramem
|
|
8.8 |
x4-megamem C3-metal |
|
8.6 |
x4-megamem C3-metal |
|
8.4 |
x4-megamem C3-metal |
|
8.2 |
x4-megamem C3-metal m4-megamem m4-ultramem
|
|
8.1 |
x4-megamem C3 - metallo c3-standard c3-highmem m3-ultramem m3-megamem m4-megamem m4-ultramem
|
|
7,9 |
c4-highmem x4-megamem C3-metal m4-megamem m4-ultramem
|
|
7,7 |
c4-highmem x4-megamem C3 - metallo c3-standard c3-highmem m3-ultramem m3-megamem m4-megamem m4-ultramem
|
|
SLES for SAP | 15 SP7 | |
15 SP6 | ||
15 SP5 | ||
15 SP4 | ||
15 SP3 |
x4-megamem C3-metal |
|
15 SP2 |
x4-megamem C3-metal |
|
15 SP1 |
c4-highmem x4-megamem C3 - metallo c3-standard c3-highmem m3-ultramem m3-megamem m4-megamem m4-ultramem
|
|
12 SP5 |
x4-megamem C3-metal |
Immagini del sistema operativo personalizzate
Puoi utilizzare un'immagine Linux che Google Cloud fornisce e gestisce (un'immagine pubblica) oppure puoi fornire e gestire la tua immagine Linux (un'immagine personalizzata).
Utilizza un'immagine personalizzata se la versione del sistema operativo certificato SAP che ti serve non è disponibile da Google Cloud come immagine pubblica. I seguenti passaggi, descritti in dettaglio in Importazione delle immagini del disco di avvio su Compute Engine, riepilogano la procedura per utilizzare un'immagine personalizzata:
- Prepara il disco di avvio in modo che possa essere avviato nell'ambiente Compute Engine e in modo da potervi accedere dopo l'avvio. Google Cloud
- Crea e comprimi il file immagine del disco di avvio.
- Carica il file immagine su Cloud Storage e importa l'immagine in Compute Engine come nuova immagine personalizzata.
- Utilizza l'immagine importata per creare un'istanza di macchina virtuale e assicurati che si avvii correttamente.
- Ottimizza l'immagine e installa l'ambiente guest Linux in modo che l'immagine del sistema operativo importata possa comunicare con il server di metadati e utilizzare funzionalità aggiuntive di Compute Engine.
Una volta pronta l'immagine personalizzata, puoi utilizzarla per creare VM per il tuo sistema SAP HANA.
Se stai spostando un sistema operativo RHEL da un'installazione on-premise a Google Cloud, devi aggiungere Red Hat Cloud Access al tuo abbonamento Red Hat. Per ulteriori informazioni, vedi Red Hat Cloud Access.
Per saperne di più sulle immagini del sistema operativo fornite da Google Cloud , consulta Immagini.
Per saperne di più sull'importazione di un sistema operativo in Google Cloud come immagine personalizzata, vedi Importazione delle immagini del disco di avvio su Compute Engine.
Per ulteriori informazioni sui sistemi operativi supportati da SAP HANA, consulta:
- Certified and Supported SAP HANA Hardware Directory
- Nota SAP 2235581 - SAP HANA: sistemi operativi supportati
OS clocksource sulle VM Compute Engine
La clocksource predefinita del sistema operativo è kvm-clock per le immagini SLES e TSC per le immagini RHEL.
La modifica di clocksource del sistema operativo non è necessaria quando SAP HANA è in esecuzione su una VM Compute Engine. Non c'è alcuna differenza di prestazioni quando si utilizza kvm-clock o TSC come clocksource per le VM di Compute Engine con SAP HANA.
Se devi modificare l'origine dell'orologio del sistema operativo in TSC, connettiti alla VM utilizzando SSH ed esegui i seguenti comandi:
echo "tsc" | sudo tee /sys/devices/system/clocksource/*/current_clocksource sudo cp /etc/default/grub /etc/default/grub.backup sudo sed -i '/GRUB_CMDLINE_LINUX/ s|"| clocksource=tsc"|2' /etc/default/grub sudo grub2-mkconfig -o /boot/grub2/grub.cfg
Archiviazione su disco permanente
Per l'archiviazione a blocchi permanente, puoi collegare dischi permanenti Compute Engine o Hyperdisk quando crei le VM o aggiungerli alle VM in un secondo momento.Tipi di dischi supportati
Compute Engine offre diversi tipi di Persistent Disk e Hyperdisk basati sulla tecnologia Solid State Drive (SSD) o sulla tecnologia Standard Hard Disk Drive (HDD). Ogni tipo ha caratteristiche di prestazioni diverse. Google Cloud gestisce l'hardware sottostante dei dischi per garantire la ridondanza dei dati e ottimizzare le prestazioni.
Per motivi di prestazioni, i volumi /hana/data
e /hana/log
di SAP HANA
richiedono dischi di archiviazione permanente basati su SSD.
I tipi di Persistent Disk e Hyperdisk basati su SSD certificati da SAP per l'utilizzo con SAP HANA includono:
Tipi di Persistent Disk basati su SSD: bilanciato (
pd-balanced
), prestazionale o SSD (pd-ssd
) ed estremo (pd-extreme
)- Questi tipi di dischi forniscono un'archiviazione a blocchi conveniente e affidabile.
- Persistent Disk (SSD) prestazionale (
pd-ssd
) offre prestazioni superiori rispetto al disco permanente bilanciato (pd-balanced
). - Utilizza il disco permanente con bilanciamento del carico come disco consigliato per ospitare quanto segue per le istanze VM:
- Volume di avvio della VM.
- Il volume
/usr/sap
. - Il volume
/hana/shared
, se lo ospiti su un disco separato. - Il volume
/hanabackup
, se salvi i backup su un disco. Se vuoi ridurre i costi di backup, puoi utilizzare un Persistent Disk HDD standard (pd-standard
). Il disco permanente bilanciato fornisce backup più veloci rispetto al disco permanente HDD standard. Quando selezioni il disco, assicurati che il tipo di VM supporti il tipo di disco.
- I dischi permanenti bilanciati e prestazionali (SSD) supportano la replica asincrona delPersistent Diske. Puoi utilizzare questa funzionalità per il ripristino di emergenza attivo-passivo tra regioni. Per saperne di più, consulta la pagina Disaster recovery tramite la replica asincrona PD.
- Sebbene il disco permanente estremo (
pd-extreme
) sia certificato per l'utilizzo con SAP HANA, ti consigliamo di utilizzare Hyperdisk Extreme (hyperdisk-extreme
), che offre prestazioni migliori. Se vuoi utilizzare Extreme Persistent Disk, assicurati di eseguire il provisioning dei dischi in conformità con le informazioni riportate in Dimensioni minime per i volumi Persistent Disk e Hyperdisk basati su SSD.
Tipi di Hyperdisk: Hyperdisk Extreme (
hyperdisk-extreme
) e Hyperdisk bilanciato (hyperdisk-balanced
)- Hyperdisk Extreme offre opzioni di IOPS e throughput massimi superiori rispetto ai tipi di Persistent Disk basati su SSD.
- Per un elenco dei tipi di macchine che supportano Hyperdisk Extreme e Hyperdisk Balanced, consulta Supporto dei tipi di macchine.
- Utilizza Hyperdisk Balanced come disco consigliato per ospitare
quanto segue per le istanze bare metal di Compute Engine, ad esempio X4:
- Il disco di avvio.
- Il volume
/usr/sap
. - Il volume
/hana/shared
, se lo ospiti su un disco separato. - Il volume
/hanabackup
, se salvi i backup su un disco.
- Per Hyperdisk Extreme, seleziona le prestazioni di cui hai bisogno eseguendo il provisioning degli IOPS, che determina anche il throughput. Per ulteriori informazioni, consulta Limiti di dimensioni e prestazioni per Hyperdisk Extreme.
- Per Hyperdisk Balanced, seleziona le prestazioni di cui hai bisogno eseguendo il provisioning di IOPS e throughput. Per ulteriori informazioni, consulta Limiti di dimensioni e prestazioni per Hyperdisk Balanced.
- Puoi utilizzare Hyperdisk Extreme per i volumi
/hana/data
e/hana/log
quando richiedi le massime prestazioni. - Per ottenere le migliori prestazioni da Hyperdisk Extreme per SAP HANA, aggiorna le proprietà del sistema SAP HANA come consigliato in Prestazioni di Hyperdisk Extreme.
Layout del disco supportati
La figura seguente mostra il layout dello spazio di archiviazione su disco nelle architetture suggerite per SAP HANA su Google Cloud.
Nella figura precedente, la configurazione a sinistra utilizza un layout a disco diviso.
I volumi /hana/data
e /hana/log
si trovano su Hyperdisk separati. Il volume
/hana/data
può essere ospitato su più dischi. I volumi
/hana/shared
e /usr/sap
, che non richiedono prestazioni elevate, si trovano su singoli dischi permanenti bilanciati, che costano meno di un
Hyperdisk Extreme.
La configurazione a destra utilizza un layout del disco unificato, in cui i volumi /hana/data
, /hana/log
, /hana/shared
e /usr/sap
sono tutti montati su un unico Hyperdisk Extreme.
I dischi permanenti e gli Hyperdisk si trovano in modo indipendente dalle VM, quindi puoi scollegare o spostare questi dischi per conservare i dati, anche dopo aver eliminato le VM.
Nella Google Cloud console, puoi visualizzare i dischi permanenti e gli Hyperdisk collegati alle tue istanze VM in Dischi aggiuntivi nella pagina Dettagli istanza VM per ogni istanza VM. Per saperne di più sui diversi tipi di volumi Persistent Disk e Hyperdisk di Compute Engine, sulle loro caratteristiche di prestazioni e su come utilizzarli, consulta la seguente documentazione:
- Opzioni di archiviazione
- Informazioni su Hyperdisk
- Prestazioni di Hyperdisk
- Limiti di prestazioni di Hyperdisk
- Prestazioni di Persistent Disk
- Altri fattori che influiscono sulle prestazioni di Persistent Disk
- Aggiungi un Persistent Disk alla tua VM
- Crea e gestisci snapshot dei dischi
- Esegui la migrazione dei volumi del disco permanente SAP HANA ai volumi Hyperdisk
Dimensioni minime per i volumi Persistent Disk e Hyperdisk basati su SSD
Quando dimensioni determinati dischi permanenti basati su SSD di Compute Engine per SAP HANA, devi tenere conto non solo dei requisiti di archiviazione della tua istanza SAP HANA, ma anche delle prestazioni del disco permanente.
Nei limiti, le prestazioni di un disco permanente SSD o bilanciato aumentano man mano che aumentano le dimensioni del disco e il numero di vCPU. Se un disco permanente SSD o bilanciato è troppo piccolo, potrebbe non fornire le prestazioni richieste da SAP HANA.
Le prestazioni di Hyperdisk non sono influenzate dalle dimensioni del disco. Il suo rendimento è determinato dalle IOPS o dal throughput di cui esegui il provisioning. Per informazioni sulle prestazioni di Hyperdisk, consulta la pagina Panoramica di Hyperdisk.
Un SSD da 550 GB o un disco permanente bilanciato da 943 GB fornisce un throughput sostenuto di 400 MB al secondo per letture e scritture, che è il minimo. Per informazioni generali sulle prestazioni del disco permanente, consulta Prestazioni del disco permanente.
La tabella seguente mostra le dimensioni minime consigliate per il disco permanente SSD
(pd-ssd
), il disco permanente bilanciato (pd-balanced
),
Hyperdisk Extreme (hyperdisk-extreme
)
e Hyperdisk Balanced (hyperdisk-balanced
) per soddisfare i requisiti di prestazioni di SAP HANA
in un
ambiente di produzione per ogni tipo di macchina Compute Engine
certificato per SAP HANA. Le dimensioni minime per i volumi Hyperdisk, basate esclusivamente sulla quantità di memoria, sono incluse nella tabella come riferimento.
Per informazioni sulla configurazione di archiviazione consigliata per i sistemi SAP HANA in esecuzione su istanze X4, consulta Archiviazione a blocchi supportata per X4.
Le dimensioni nella tabella seguente presuppongono che tu stia montando tutti i volumi SAP HANA su dischi singoli.
Disco permanente con carico bilanciato
Se vuoi utilizzare più di un volume Persistent Disk bilanciato per ospitare il volume /hana/data
, assicurati di dividere equamente il valore della dimensione indicato nella colonna "Dimensione /hana/data
(GB)" tra i volumi del disco di cui esegui il provisioning.
Tipo di VM Compute Engine |
/hana/data dimensioni (GB)
|
/hana/log dimensioni (GB) |
Dimensione /hana/shared (GB) |
Dimensione /usr/sap (GB) |
Dimensioni totali (GB) |
---|---|---|---|---|---|
n1-highmem-32 |
599 | 104 | 208 | 32 | 943 |
n1-highmem-64 |
499 | 208 | 416 | 32 | 1155 |
n1-highmem-96 |
748 | 312 | 624 | 32 | 1716 |
n2-highmem-32 |
527 | 128 | 256 | 32 | 943 |
n2-highmem-48 |
460 | 192 | 384 | 32 | 1068 |
n2-highmem-64 |
614 | 256 | 512 | 32 | 1414 |
n2-highmem-80 |
768 | 320 | 640 | 32 | 1760 |
n2-highmem-96 |
921 | 384 | 768 | 32 | 2105 |
n2-highmem-128 |
1036 | 432 | 864 | 32 | 2364 |
c3-standard-44 |
647 | 88 | 176 | 32 | 943 |
c3-highmem-44 |
422 | 176 | 352 | 32 | 982 |
c3-highmem-88 |
844 | 352 | 704 | 32 | 1932 |
c3-highmem-176 |
1689 | 512 | 1024 | 32 | 3257 |
m1-megamem-96 |
1719 | 512 | 1024 | 32 | 3287 |
m1-ultramem-40 |
1153 | 480 | 961 | 32 | 2626 |
m1-ultramem-80 |
2306 | 512 | 1024 | 32 | 3874 |
m1-ultramem-160 |
4612 | 512 | 1024 | 32 | 6180 |
m2-megamem-416 |
7065 | 512 | 1024 | 32 | 8633 |
m2-ultramem-208 |
7065 | 512 | 1024 | 32 | 8633 |
m2-ultramem-416 |
14.092 | 512 | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 | 512 | 1024 | 32 | 12.166 |
m3-ultramem-32 |
1171 | 488 | 976 | 32 | 2667 |
m3-ultramem-64 |
2342 | 512 | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 | 512 | 1024 | 32 | 6252 |
m3-megamem-64 |
1171 | 488 | 976 | 32 | 2667 |
m3-megamem-128 |
2342 | 512 | 1024 | 32 | 3910 |
Disco permanente SSD
Se vuoi utilizzare più di un volume di disco permanente SSD per ospitare il volume /hana/data
, assicurati di dividere equamente il valore delle dimensioni fornito nella colonna "Dimensioni /hana/data
(GB)" tra i volumi del disco di cui esegui il provisioning.
Tipo di VM Compute Engine |
/hana/data dimensioni (GB)
|
/hana/log dimensioni (GB) |
Dimensione /hana/shared (GB) |
Dimensione /usr/sap (GB) |
Dimensioni totali (GB) |
---|---|---|---|---|---|
n1-highmem-32 |
249 | 104 | 208 | 32 | 593 |
n1-highmem-64 |
499 | 208 | 416 | 32 | 1155 |
n1-highmem-96 |
748 | 312 | 624 | 32 | 1716 |
n2-highmem-32 |
307 | 128 | 256 | 32 | 723 |
n2-highmem-48 |
460 | 192 | 384 | 32 | 1068 |
n2-highmem-64 |
614 | 256 | 512 | 32 | 1414 |
n2-highmem-80 |
768 | 320 | 640 | 32 | 1760 |
n2-highmem-96 |
921 | 384 | 768 | 32 | 2105 |
n2-highmem-128 |
1036 | 432 | 864 | 32 | 2364 |
c3-standard-44 |
254 | 88 | 176 | 32 | 550 |
c3-highmem-44 |
422 | 176 | 352 | 32 | 982 |
c3-highmem-88 |
844 | 352 | 704 | 32 | 1932 |
c3-highmem-176 |
1689 | 512 | 1024 | 32 | 3257 |
m1-megamem-96 |
1719 | 512 | 1024 | 32 | 3287 |
m1-ultramem-40 |
1153 | 480 | 961 | 32 | 2626 |
m1-ultramem-80 |
2306 | 512 | 1024 | 32 | 3874 |
m1-ultramem-160 |
4612 | 512 | 1024 | 32 | 6180 |
m2-megamem-416 |
7065 | 512 | 1024 | 32 | 8633 |
m2-ultramem-208 |
7065 | 512 | 1024 | 32 | 8633 |
m2-ultramem-416 |
14.092 | 512 | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 | 512 | 1024 | 32 | 12.166 |
m3-ultramem-32 |
1171 | 488 | 976 | 32 | 2667 |
m3-ultramem-64 |
2342 | 512 | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 | 512 | 1024 | 32 | 6252 |
m3-megamem-64 |
1171 | 488 | 976 | 32 | 2667 |
m3-megamem-128 |
2342 | 512 | 1024 | 32 | 3910 |
Hyperdisk Extreme
Quando utilizzi Hyperdisk Extreme per ospitare i volumi /hana/data
e /hana/log
, assicurati di ospitare i volumi
/hana/shared
e /usr/sap
su dischi permanenti bilanciati separati. Questo perché i volumi /hana/shared
e
/usr/sap
non richiedono prestazioni elevate come i volumi
di dati e log.
Se vuoi utilizzare più di un volume Hyperdisk Extreme
per ospitare il volume /hana/data
, assicurati di dividere equamente
i valori di dimensioni e IOPS forniti nella
colonna "Dimensioni e IOPS di /hana/data
(GB)" tra i volumi del disco
di cui esegui il provisioning.
Tipo di VM Compute Engine |
/hana/data dimensioni (GB) e IOPS
|
/hana/log dimensioni (GB) e IOPS |
Dimensione /hana/shared (GB) |
Dimensione /usr/sap (GB) |
Dimensioni totali (GB) |
---|---|---|---|---|---|
n2-highmem-80 |
768 GB con 10.000 IOPS | 320 GB con 10.000 IOPS | 640 | 32 | 1760 |
n2-highmem-96 |
921 GB con 10.000 IOPS | 384 GB con 10.000 IOPS | 768 | 32 | 2105 |
n2-highmem-128 |
1036 GB con 10.000 IOPS | 432 GB con 10.000 IOPS | 864 | 32 | 2364 |
c3-highmem-88 |
844 GB con 10.000 IOPS | 352 GB con 10.000 IOPS | 704 | 32 | 1932 |
c3-highmem-176 |
1689 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3257 |
c3-highmem-192-metal |
1843 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3411 |
c4-highmem-96 |
892 GB con 10.000 IOPS | 372 GB con 10.000 IOPS | 744 | 32 | 2040 |
c4-highmem-192 |
1785 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3353 |
m1-megamem-96 |
1719 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3287 |
m1-ultramem-80 |
2306 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3874 |
m1-ultramem-160 |
4612 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 6180 |
m2-megamem-416 |
7065 GB con 14.130 IOPS | 512 GB con 3000 IOPS | 1024 | 32 | 8633 |
m2-ultramem-208 |
7065 GB con 14.130 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 8633 |
m2-ultramem-416 |
14.092 GB con 28.184 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 GB con 21.196 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 12.166 |
m3-ultramem-64 |
2342 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 6252 |
m3-megamem-64 |
1171 GB con 10.000 IOPS | 488 GB con 10.000 IOPS | 976 | 32 | 2667 |
m3-megamem-128 |
2342 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3910 |
m4-megamem-112 |
1785 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 3353 |
m4-megamem-224 |
3571 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 5139 |
m4-ultramem-112 |
3571 GB con 10.000 IOPS | 512 GB con 10.000 IOPS | 1024 | 32 | 5139 |
m4-ultramem-224 |
7142 GB con 14.284 IOPS | 512 GB con 3000 IOPS | 1024 | 32 | 8710 |
Hyperdisk bilanciato
Per SAP HANA, le IOPS di cui è stato eseguito il provisioning minime supportate sono 3000 e il throughput è 400 MBps. Tuttavia, puoi ottimizzare questi valori in base ai tuoi requisiti di prestazioni specifici. Ti consigliamo un valore iniziale di 3000 IOPS e 750 MBps di throughput, in quanto si tratta dei valori predefiniti utilizzati nei file di configurazione Terraform che Google Cloud fornisce per il deployment automatizzato di SAP HANA.
Se vuoi utilizzare più di un volume Hyperdisk Balanced
per ospitare il volume /hana/data
, assicurati di dividere equamente
i valori di dimensioni, IOPS e throughput forniti nella
colonna "Dimensioni (GB), IOPS e throughput di /hana/data
" tra i
volumi del disco di cui esegui il provisioning.
Tipo di VM Compute Engine |
/hana/data dimensioni (GB), IOPS e throughput
|
/hana/log dimensioni (GB), IOPS e throughput
|
Dimensione /hana/shared (GB) |
Dimensione /usr/sap (GB) |
Dimensioni totali (GB) |
---|---|---|---|---|---|
c3-standard-44 |
211 GB con 10.000 IOPS e throughput di 400 MBps | 88 GB con 3000 IOPS e 400 MBps di throughput | 176 | 32 | 507 |
c3-highmem-44 |
422 GB con 10.000 IOPS e 400 MBps di throughput | 176 GB con 3000 IOPS e 400 MBps di throughput | 352 | 32 | 982 |
c3-highmem-88 |
844 GB con 10.000 IOPS e 1200 MBps di throughput | 352 GB con 3000 IOPS e 400 MBps di throughput | 704 | 32 | 1932 |
c3-highmem-176 |
1689 GB con 10.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 3257 |
c3-highmem-192-metal |
1843 GB con 10.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 3411 |
c4-highmem-32 |
297 GB con 10.000 IOPS e 400 MBps di throughput | 124 GB con 3000 IOPS e 400 MBps di throughput | 248 | 32 | 701 |
c4-highmem-48 |
446 GB con 10.000 IOPS e 400 MBps di throughput | 186 GB con 3000 IOPS e 400 MBps di throughput | 372 | 32 | 1036 |
c4-highmem-96 |
892 GB con 10.000 IOPS e 800 MBps di throughput | 372 GB con 3000 IOPS e velocità effettiva di 400 MBps | 744 | 32 | 2040 |
c4-highmem-192 |
1785 GB con 10.000 IOPS e 800 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 3353 |
m1-megamem-96 |
1719 GB con 8000 IOPS e 1000 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 3287 |
m1-ultramem-40 |
1153 GB con 8000 IOPS e 900 MBps di throughput | 480 GB con 3000 IOPS e 400 MBps di throughput | 961 | 32 | 2626 |
m1-ultramem-80 |
2306 GB con 10.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 3874 |
m1-ultramem-160 |
4612 GB con 15.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 6180 |
m2-megamem-416 |
7065 GB con 20.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 8633 |
m2-ultramem-208 |
7065 GB 20.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 8633 |
m2-ultramem-416 |
14.092 GB con 20.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 15.660 |
m2-hypermem-416 |
10.598 GB con 20.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 12.166 |
m3-ultramem-32 |
1171 GB con 10.000 IOPS e 900 MBps di throughput | 488 GB con 3000 IOPS e 400 MBps di throughput | 976 | 32 | 2667 |
m3-ultramem-64 |
2342 GB con 10.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 3910 |
m3-ultramem-128 |
4684 GB con 10.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 6252 |
m3-megamem-64 |
1171 GB con 10.000 IOPS e 900 MBps di throughput | 488 GB con 3000 IOPS e 400 MBps di throughput | 976 | 32 | 2667 |
m3-megamem-128 |
2342 GB con 10.000 IOPS e 1200 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 3910 |
m4-megamem-28 |
446 GB con 10.000 IOPS e 400 MBps di throughput | 186 GB con 3000 IOPS e 400 MBps di throughput | 372 | 32 | 1036 |
m4-megamem-56 |
892 GB con 10.000 IOPS e 2500 MBps di throughput | 372 GB con 3000 IOPS e 400 MBps di throughput | 744 | 32 | 2040 |
m4-megamem-112 |
1785 GB con 10.000 IOPS e 2500 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 3353 |
m4-megamem-224 |
3571 GB con 10.000 IOPS e 2500 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 5139 |
m4-ultramem-56 |
1785 GB con 10.000 IOPS e 2500 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 3353 |
m4-ultramem-112 |
3571 GB con 10.000 IOPS e 2500 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 5139 |
m4-ultramem-224 |
7142 GB con 10.000 IOPS e 2500 MBps di throughput | 512 GB con 3000 IOPS e 400 MBps di throughput | 1024 | 32 | 8710 |
Dimensioni del disco per il montaggio di tutti i volumi SAP HANA su un unico disco
Le dimensioni nella tabella seguente presuppongono che tu stia utilizzando un singolo disco per ospitare tutti i seguenti volumi: /hana/data
, /hana/log
, /hana/shared
e /usr/sap
.
Disco permanente con carico bilanciato
Tipo di VM Compute Engine | Dimensioni (GB) |
---|---|
n1-highmem-32 |
943 |
n1-highmem-64 |
1155 |
n1-highmem-96 |
1716 |
n2-highmem-32 |
943 |
n2-highmem-48 |
1068 |
n2-highmem-64 |
1414 |
n2-highmem-80 |
1760 |
n2-highmem-96 |
2105 |
n2-highmem-128 |
2364 |
c3-standard-44 |
943 |
c3-highmem-44 |
982 |
c3-highmem-88 |
1932 |
c3-highmem-176 |
3257 |
m1-megamem-96 |
3287 |
m1-ultramem-40 |
2626 |
m1-ultramem-80 |
3874 |
m1-ultramem-160 |
6180 |
m2-megamem-416 |
8633 |
m2-ultramem-208 |
8633 |
m2-ultramem-416 |
15.660 |
m2-hypermem-416 |
12.166 |
m3-ultramem-32 |
2667 |
m3-ultramem-64 |
3910 |
m3-ultramem-128 |
6252 |
m3-megamem-64 |
2667 |
m3-megamem-128 |
3910 |
Disco permanente SSD
Tipo di VM Compute Engine | Dimensioni (GB) |
---|---|
n1-highmem-32 |
593 |
n1-highmem-64 |
1155 |
n1-highmem-96 |
1716 |
n2-highmem-32 |
723 |
n2-highmem-48 |
1068 |
n2-highmem-64 |
1414 |
n2-highmem-80 |
1760 |
n2-highmem-96 |
2105 |
n2-highmem-128 |
2364 |
c3-standard-44 |
550 |
c3-highmem-44 |
982 |
c3-highmem-88 |
1932 |
c3-highmem-176 |
3257 |
m1-megamem-96 |
3287 |
m1-ultramem-40 |
2626 |
m1-ultramem-80 |
3874 |
m1-ultramem-160 |
6180 |
m2-megamem-416 |
8633 |
m2-ultramem-208 |
8633 |
m2-ultramem-416 |
15.660 |
m2-hypermem-416 |
12.166 |
m3-ultramem-32 |
2667 |
m3-ultramem-64 |
3910 |
m3-ultramem-128 |
6252 |
m3-megamem-64 |
2667 |
m3-megamem-128 |
3910 |
Hyperdisk Extreme
Tipo di VM Compute Engine | Dimensioni (GB) e IOPS |
---|---|
n2-highmem-80 |
1760 GB con 20.000 IOPS |
n2-highmem-96 |
2105 GB con 20.000 IOPS |
n2-highmem-128 |
2364 GB con 20.000 IOPS |
c3-highmem-88 |
1932 GB con 20.000 IOPS |
c3-highmem-176 |
3257 GB con 20.000 IOPS |
c3-highmem-192-metal |
3411 GB con 20.000 IOPS |
c4-highmem-96 |
2040 GB con 20.000 IOPS |
c4-highmem-192 |
3353 GB con 20.000 IOPS |
m1-megamem-96 |
3287 GB con 20.000 IOPS |
m1-ultramem-80 |
3874 GB con 20.000 IOPS |
m1-ultramem-160 |
6180 GB con 20.000 IOPS |
m2-megamem-416 |
8633 GB con 24.130 IOPS |
m2-ultramem-208 |
8633 GB con 24.130 IOPS |
m2-ultramem-416 |
15.660 GB con 38.184 IOPS |
m2-hypermem-416 |
12.166 GB con 31.196 IOPS |
m3-ultramem-64 |
3910 GB con 20.000 IOPS |
m3-ultramem-128 |
6252 GB con 20.000 IOPS |
m3-megamem-64 |
2667 GB con 20.000 IOPS |
m3-megamem-128 |
3910 GB con 20.000 IOPS |
m4-megamem-112 |
3353 GB con 20.000 IOPS |
m4-megamem-224 |
5139 GB con 20.000 IOPS |
m4-ultramem-112 |
5139 GB con 20.000 IOPS |
m4-ultramem-224 |
8710 GB con 17.283 IOPS |
Hyperdisk bilanciato
Tipo di VM Compute Engine | Dimensioni (GB), IOPS e throughput |
---|---|
c3-standard-44 |
507 GB con 13.000 IOPS e 800 MBps di throughput |
c3-highmem-44 |
982 GB con 13.000 IOPS e 800 MBps di throughput |
c3-highmem-88 |
1932 GB con 13.000 IOPS e 1600 MBps di throughput |
c3-highmem-176 |
3257 GB con 13.000 IOPS e 1600 MB/s di throughput |
c3-highmem-192-metal |
3411 GB con 13.000 IOPS e 1600 MB/s di throughput |
c4-highmem-32 |
701 GB con 13.000 IOPS e 800 MB/s di throughput |
c4-highmem-48 |
1036 GB con 13.000 IOPS e 800 MBps di throughput |
c4-highmem-96 |
2040 GB con 13.000 IOPS e 1200 MBps di throughput |
c4-highmem-192 |
3353 GB con 13.000 IOPS e 1200 MBps di throughput |
m1-megamem-96 |
3287 GB con 11.000 IOPS e 1400 MBps di throughput |
m1-ultramem-40 |
2626 GB con 11.000 IOPS e 1300 MBps di throughput |
m1-ultramem-80 |
3874 GB con 13.000 IOPS e 1600 MBps di throughput |
m1-ultramem-160 |
6180 GB con 18.000 IOPS e 1600 MBps di throughput |
m2-megamem-416 |
8633 GB con 23.000 IOPS e 1600 MBps di throughput |
m2-ultramem-208 |
8633 GB con 23.000 IOPS e 1600 MBps di throughput |
m2-ultramem-416 |
15.660 GB con 23.000 IOPS e 1600 MBps di throughput |
m2-hypermem-416 |
12.166 GB con 23.000 IOPS e 1600 MBps di throughput |
m3-ultramem-32 |
2667 GB con 13.000 IOPS e 1300 MBps di throughput |
m3-ultramem-64 |
3910 GB con 13.000 IOPS e velocità effettiva di 1600 MBps |
m3-ultramem-128 |
6252 GB con 13.000 IOPS e 1600 MBps di throughput |
m3-megamem-64 |
2667 GB con 13.000 IOPS e 1300 MB/s di throughput |
m3-megamem-128 |
3910 GB con 13.000 IOPS e velocità effettiva di 1600 MBps |
m4-megamem-28 |
1036 GB con 13.000 IOPS e 800 MBps di throughput |
m4-megamem-56 |
2040 GB con 13.000 IOPS e 2900 MBps di throughput |
m4-megamem-112 |
3353 GB con 13.000 IOPS e 2900 MBps di throughput |
m4-megamem-224 |
5139 GB con 13.000 IOPS e 2900 MBps di throughput |
m4-ultramem-56 |
3353 GB con 13.000 IOPS e 2900 MBps di throughput |
m4-ultramem-112 |
5139 GB con 13.000 IOPS e 2900 MBps di throughput |
m4-ultramem-224 |
8710 GB con 13.000 IOPS e 2900 MBps di throughput |
Determinare le dimensioni del disco permanente o di Hyperdisk
Calcola la quantità di spazio di archiviazione su disco permanente di cui hai bisogno per i volumi SAP HANA in base alla quantità di memoria contenuta nel tipo di macchina Compute Engine selezionato.
Le seguenti indicazioni sulle dimensioni del disco si riferiscono alle dimensioni minime che Google Cloud consiglia per le tue implementazioni. Queste indicazioni, pur superando i requisiti minimi di SAP, sono progettate per bilanciare i requisiti di archiviazione del sistema SAP HANA, i requisiti di prestazioni dei dischi e il costo totale di proprietà. Puoi aumentare le dimensioni dei dischi fino al limite supportato dai tipi di disco sottostanti. Per informazioni sulle dimensioni minime richieste per i dischi, consulta Dimensioni minime per i dischi permanenti basati su SSD.
Requisiti di dimensione del disco permanente per i sistemi di scalabilità verticale
Per i sistemi di scalabilità verticale SAP HANA, utilizza le seguenti formule per ogni volume:
/hana/data
: 1,2 x memoria/hana/log
: 0,5 x memoria o 512 GB, a seconda di quale sia il valore più piccolo/hana/shared
: 1 x memoria o 1024 GB, a seconda di quale sia inferiore/usr/sap
: 32 GB/hanabackup
: 2 x memory, optional allocation
Requisiti di dimensione del disco permanente per i sistemi di scalabilità orizzontale
Per i sistemi di scalabilità orizzontale SAP HANA, utilizza la stessa formula dei sistemi di scalabilità verticale SAP HANA
per i volumi /hana/data
, /hana/log
e /usr/sap
. Per il volume /hana/shared
, calcola
le dimensioni del disco permanente o di Hyperdisk in base al numero di host worker nel deployment.
Per ogni quattro host worker, aumenta la dimensione del disco di 1 x memoria o 1 TB,
a seconda di quale sia il valore inferiore. Ad esempio:
- Da 1 a 4 host worker: 1 x memoria o 1 TB, a seconda di quale sia inferiore
- Da 5 a 8 host worker: 2 x memoria o 2 TB, a seconda di quale sia inferiore
- Da 9 a 12 host worker: 3 x memoria o 3 TB, a seconda di quale sia inferiore
- Da 13 a 16 host worker: 4 x memoria o 4 TB, a seconda di quale sia inferiore
Per determinare i requisiti complessivi della quota di spazio di archiviazione per i sistemi di scalabilità orizzontale SAP HANA,
devi sommare le dimensioni del disco per ogni tipo di disco utilizzato con tutti
gli host nel sistema di scalabilità orizzontale. Ad esempio, se hai inserito /hana/data
e /hana/log
su dischi permanenti pd-ssd
, ma /hana/shared
e /usr/sap
su dischi permanenti pd-balanced
, devi avere totali separati per pd-ssd
e pd-balanced
per richiedere quote separate.
Per un sistema SAP HANA scalabile orizzontalmente con failover automatico dell'host, devi calcolare solo
le dimensioni del disco permanente per gli host master e worker. Gli host di riserva non hanno
volumi /hana/data
, /hana/log
e /usr/sap
propri. In caso di errore, il failover automatico di SAP HANA smonta i volumi /hana/data
, /hana/log
e /usr/sap
dall'host non funzionante e li monta su un host di standby. I volumi
/hana/shared
e /hanabackup
per un host di standby sono montati su una
soluzione NFS di cui è stato eseguito il deployment separatamente.
Allocazione di spazio di archiviazione su disco permanente aggiuntivo
Seleziona un disco permanente o una dimensione Hyperdisk non inferiore alla dimensione minima elencata per il tipo di disco permanente o Hyperdisk in Dimensioni minime per i volumi Persistent Disk e Hyperdisk basati su SSD.
Se utilizzi dischi permanenti SSD o bilanciati, le dimensioni minime potrebbero essere determinate dai requisiti di prestazioni di SAP HANA anziché dai requisiti di archiviazione di SAP HANA.
Ad esempio, se esegui SAP HANA su un'istanza VM n2-highmem-32
, che ha 256 GB di memoria, il requisito di spazio di archiviazione totale per i volumi SAP HANA è 723 GB: 307 GB per il volume di dati, 128 GB per il volume di log, 256 GB per il volume condiviso e 32 GB per il volume /usr/sap
.
Tuttavia, se utilizzi un disco
permanente bilanciato, la dimensione minima richiesta è 943 GB, dove i 220 GB aggiuntivi sono
allocati al volume di dati per soddisfare le prestazioni richieste. Pertanto, se
utilizzi un'istanza VM n2-highmem-32
con dischi permanenti bilanciati per eseguire SAP HANA,
devi eseguire il provisioning di uno spazio di archiviazione su disco permanente di almeno 943 GB.
pertanto devi dimensionare il disco permanente a 943 GB o più. Il provisioning aggiuntivo di 220 GB viene applicato al volume di dati per fornire le prestazioni richieste.
Applica qualsiasi spazio di archiviazione su disco permanente aggiuntivo al volume /hana/data
.
Per informazioni da SAP sul dimensionamento per SAP HANA, consulta Dimensionamento di SAP HANA.
Prestazioni di Hyperdisk
Hyperdisk offre opzioni di IOPS e throughput massimi più elevati per i volumi /hana/log
e /hana/data
rispetto agli altri dischi permanenti basati su SSD. Per saperne di più sulle opzioni di provisioning di IOPS e throughput per Hyperdisk, consulta Informazioni sul provisioning delle prestazioni.
A differenza dei dischi permanenti basati su SSD, quando utilizzi Hyperdisk con SAP HANA, non devi preoccuparti delle prestazioni quando dimensioni Hyperdisk. Il dimensionamento di Hyperdisk si basa esclusivamente sui requisiti di spazio di archiviazione di SAP HANA. Per ulteriori informazioni sul dimensionamento dei dischi permanenti o di Hyperdisk, consulta Determinare le dimensioni del disco permanente.
Quando utilizzi Hyperdisk con SAP HANA, per ottenere le migliori prestazioni, ti consigliamo di aggiornare le proprietà del sistema SAP HANA nel seguente modo:
- Aggiorna il file
global.ini
:- Nella sezione
fileio
, impostanum_completion_queues = 12
- Nella sezione
fileio
, impostanum_submit_queues = 12
- Nella sezione
- Aggiorna il file
indexserver.ini
:- Nella sezione
parallel
, impostatables_preloaded_in_parallel = 32
- Nella sezione
global
, impostaload_table_numa_aware = true
- Nella sezione
Quando crei un volume Hyperdisk Extreme, il numero di IOPS di cui esegui il provisioning determina il throughput massimo. La seguente formula può essere utilizzata come punto di partenza. Fornisce un throughput minimo di 2500 MiB/s (256 KB per IOPS * 10.000 IOPS) e un throughput maggiore per i tipi di macchine più grandi con dischi più grandi.
- Quando utilizzi il deployment predefinito con dischi separati per
/hana/log
e/hana/data
:- IOPS per il disco dati:
maximum(10,000, size of data disk in GB * 2)
- IOPS per il disco di log:
maximum(10,000, size of log disk in GB * 2)
- IOPS per il disco dati:
- Quando viene utilizzato un singolo disco per
/hana/data
,/hana/log
,/hana/shared
e/usr/sap
:- IOPS per il disco:
maximum(10,000, size of data disk GB * 2) + maximum(10,000, size of log disk in GB * 2)
- IOPS per il disco:
Il numero massimo di IOPS che puoi eseguire il provisioning può variare a seconda del tipo di macchina che utilizzi. Per un elenco dei tipi di macchine che supportano Hyperdisk Extreme, nonché delle IOPS e del throughput massimi che Hyperdisk Extreme può fornire con ogni tipo di macchina, consulta Supporto dei tipi di macchine.
Quando crei un volume Hyperdisk Balanced, puoi eseguire il provisioning di IOPS e throughput per soddisfare le esigenze di prestazioni del tuo workload, tenendo conto delle regole per il provisioning di IOPS e il provisioning di throughput. Per SAP HANA, le IOPS di cui è stato eseguito il provisioning minime supportate sono 3000 e il throughput è di 400 MiB/s.
Dischi permanenti e Hyperdisk di cui è stato eseguito il deployment dagli script di automazione del deployment
Quando esegui il deployment di un sistema SAP HANA utilizzando le configurazioni Terraform fornite daGoogle Cloud , lo script di deployment alloca dischi permanenti o Hyperdisk per i volumi SAP nel seguente modo:
Per impostazione predefinita, vengono implementati dischi separati per ciascuna delle seguenti directory:
/hana/data
,/hana/log
,/hana/shared
e/usr/sap
.(Facoltativo) Puoi scegliere di eseguire il deployment di un layout a disco singolo in cui un singolo disco permanente o Hyperdisk ospita queste directory SAP. Inoltre, per i deployment scalabili orizzontalmente di SAP HANA, la directory
/hana/shared
è ospitata da una soluzione NFS.(Facoltativo) Un disco per la directory
/hanabackup
.
L'esempio seguente mostra come Terraform mappa i volumi per SAP HANA su una VM Compute Engine n2-highmem-32
, che ha 256 GB di memoria.
hana-ssd-example:~ # lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert data vg_hana_data -wi-ao---- 308.00g log vg_hana_log -wi-ao---- 128.00g shared vg_hana_shared -wi-ao---- 256.00g usrsap vg_hana_usrsap -wi-ao---- 32.00g backup vg_hanabackup -wi-ao---- 512.00g
Le dimensioni dei volumi per lo stesso tipo di macchina potrebbero differire leggermente da quanto mostrato in questo esempio.
Quando scegli di eseguire il deployment di un layout a disco singolo utilizzando le configurazioni Terraform
fornite da Google Cloud, lo script di deployment
mappa le directory /hana/data
, /hana/log
, /usr/sap
e /hana/shared
ai propri volumi logici individuali per semplificare il ridimensionamento e le mappa al
volume Persistent Disk o Hyperdisk basato su SSD in un unico gruppo di volumi.
Le configurazioni Terraform mappano anche la directory /hanabackup
a un volume logico in un gruppo di volumi separato, che viene poi mappato a unPersistent Diske bilanciato o a Hyperdisk Balanced.
Spazio di archiviazione su disco permanente facoltativo per i backup
Quando memorizzi i backup SAP HANA su un disco, ti consigliamo di utilizzare un disco permanente bilanciato (pd-balanced
).
Se vuoi ridurre i costi, puoi utilizzare un disco permanente HDD standard (pd-standard
). Tuttavia, utilizza un disco permanente bilanciato quando è necessaria una velocità effettiva
o una concorrenza maggiore.
Le dimensioni del volume di backup SAP HANA sono progettate per fornire una baseline ottimale e un throughput burst, nonché la possibilità di contenere diversi set di backup. La presenza di più set di backup nel volume di backup semplifica il recupero del database, se necessario.
Per rendere disponibili i backup SAP HANA come risorsa di regione per il ripristino di emergenza, puoi utilizzare gli snapshot disco permanente Compute Engine. Puoi pianificare gli snapshot per eseguire regolarmente e automaticamente il backup del disco permanente. Per ulteriori informazioni, consulta Snapshot dei dischi permanenti.
Se utilizzi il tiering dinamico di SAP HANA, lo spazio di archiviazione di backup deve essere sufficiente a contenere sia i dati in memoria sia i dati gestiti su disco dal server di tiering dinamico.
Puoi utilizzare altri meccanismi per archiviare i backup SAP HANA. Se utilizzi la funzionalità Backint dell'agente di Google Cloudper SAP, puoi eseguire il backup di SAP HANA direttamente in un bucket Cloud Storage, il che rende facoltativo l'utilizzo di un disco permanente per l'archiviazione dei backup.
Tiering dinamico SAP HANA
Il tiering dinamico SAP HANA è certificato da SAP per l'utilizzo in ambienti di produzione su Google Cloud. Il tiering dinamico SAP HANA estende l'archiviazione dei dati SAP HANA memorizzando su disco i dati a cui si accede raramente anziché in memoria.
Per ulteriori informazioni, consulta SAP HANA Dynamic Tiering su Google Cloud.
Opzione di riavvio rapido di SAP HANA
Per SAP HANA 2.0 SP04 e versioni successive, Google Cloud consiglia vivamente l'opzione di riavvio rapido di SAP HANA.
Questa opzione viene attivata automaticamente se esegui il deployment di SAP HANA utilizzando
il modulo Terraform diGoogle Cloudsap_hana
o sap_hana_ha
, versione
202309280828
o successive. Per informazioni su come attivare manualmente il riavvio rapido di SAP HANA, consulta la sezione
Attivazione del riavvio rapido di SAP HANA.
SAP HANA Fast Restart riduce il tempo di riavvio nel caso in cui SAP HANA
termini, ma il sistema operativo rimanga in esecuzione. Per ridurre il tempo di riavvio, SAP HANA sfrutta la funzionalità di memoria persistente SAP HANA per conservare i frammenti di dati MAIN delle tabelle column store nella DRAM mappata al file system tmpfs
.
Inoltre, sulle VM delle famiglie M2, M3 e M4 di tipi di macchine con memoria ottimizzata di Compute Engine, SAP HANA Fast Restart migliora il tempo di ripristino se si verificano errori non correggibili nella memoria. Per saperne di più, consulta Recupero dagli errori di memoria con il riavvio rapido sulle VM di Compute Engine.
Impostazioni del sistema operativo richieste per il riavvio rapido di SAP HANA
Per utilizzare il riavvio rapido di SAP HANA, il sistema operativo deve essere ottimizzato come richiesto da SAP.
Se utilizzi i file di configurazione Terraform forniti da Google Cloud , le impostazioni del kernel vengono configurate automaticamente.
Se non utilizzi i file di deployment forniti da Google Cloud , SAP
fornisce indicazioni per la configurazione dei sistemi operativi RHEL e SLES
per SAP HANA. Per il riavvio rapido di SAP HANA, presta particolare attenzione all'impostazione corretta di numa_balancing
e transparent_hugepage
.
Se utilizzi RHEL, utilizza il profilo sap-hana
ottimizzato, se disponibile.
Per i passaggi di configurazione, vedi:
- Nota SAP 2292690 - SAP HANA DB: Recommended OS settings for RHEL 7
- Nota SAP 2777782 - SAP HANA DB: Recommended OS Settings for RHEL 8
- Nota SAP 3108302 - SAP HANA DB: Recommended OS Settings for RHEL 9
Se utilizzi SLES, utilizza lo strumento saptune
di SUSE per applicare la configurazione richiesta. Per applicare tutte le impostazioni SAP HANA consigliate, inclusi
entrambi i parametri del kernel precedenti, specifica il seguente
comando saptune
:
saptune solution apply HANA
Per ulteriori informazioni sulla configurazione di SLES per SAP HANA, consulta:
- Nota SAP 2205917 - SAP HANA DB: Recommended OS settings for SLES 12 / SLES for SAP Applications 12
- Nota SAP 2684254 - SAP HANA DB: Recommended OS settings for SLES 15 / SLES for SAP Applications 15
Recupero dagli errori di memoria con il riavvio rapido sulle VM di Compute Engine
L'attivazione del riavvio rapido di SAP HANA sulle VM nelle famiglie M2, M3 e M4 di tipi di macchine Compute Engine con memoria ottimizzata riduce il tempo necessario a SAP HANA per il ripristino da errori di memoria non correggibili.
Sfruttando le funzionalità del processore Intel, i tipi di macchina M2, M3 e M4 possono continuare a funzionare quando si verificano errori non correggibili nel sottosistema di memoria. Se il riavvio rapido di SAP HANA è abilitato quando si verifica l'errore di memoria, il processo SAP HANA interessato viene riavviato, ma non è necessario ricaricare l'intero database, solo il blocco di file interessato.
Tipi di macchine che supportano il recupero dagli errori di memoria
I seguenti tipi di macchine Compute Engine supportano il recupero dagli errori di memoria:
- M4:
m4-megamem-28
m4-megamem-56
m4-megamem-112
m4-megamem-224
m4-ultramem-56
m4-ultramem-112
m4-ultramem-224
- M3:
m3-ultramem-32
m3-ultramem-64
m3-ultramem-128
m3-megamem-64
m3-megamem-128
- M2:
m2-ultramem-208
m2-ultramem-416
m2-megamem-416
m2-hypermem-416
Sistemi operativi richiesti per il recupero dagli errori di memoria
Con le patch del kernel richieste, i seguenti sistemi operativi supportano il recupero dagli errori di memoria con il riavvio rapido di SAP HANA:
- SUSE Linux Enterprise Server (SLES) for SAP, 12 SP3 o versioni successive.
- Incluso nelle immagini pubbliche di Compute Engine con data di build v202103* o successive.
- Se devi applicare le patch del kernel più recenti a un deployment esistente, segui la procedura di aggiornamento standard. Ad esempio,
emetti i seguenti comandi:
sudo zypper refresh
sudo zypper update
- Red Hat Enterprise Linux (RHEL) per SAP, 8.4 o versioni successive.
Opzioni del file server
Le opzioni del file server per SAP HANA su Google Cloud includono Filestore e Google Cloud NetApp Volumes.
Per saperne di più su tutte le opzioni del file server per SAP su Google Cloud, consulta Soluzioni di condivisione dei file per SAP su Google Cloud.
Filestore
Per il volume /hana/shared
in una configurazione di scalabilità orizzontale a zona singola, ti consigliamo di utilizzare il livello di servizio Filestore Basic, in quanto è progettato per le risorse a livello di zona. Per gli scenari in cui è richiesta una resilienza aggiuntiva, puoi utilizzare Filestore regionale (in precedenza Enterprise). Per maggiori informazioni, consulta la sezione
Componenti in un sistema di scale out SAP HANA su Google Cloud.
Google Cloud NetApp Volumes
Google Cloud NetApp Volumes è un servizio di archiviazione dei dati basato sul cloud e completamente gestito che puoi utilizzare per creare un file system NFS per i sistemi di scalabilità verticale SAP HANA su tutti i tipi di istanze Compute Engine certificati per l'utilizzo con SAP HANA.
Per utilizzare NetApp Volumes con i volumi di dati o log SAP HANA, utilizza il livello di servizio Premium o Extreme.
Per informazioni sull'utilizzo di NetApp Volumes con il deployment SAP HANA, consulta Informazioni su Google Cloud NetApp Volumes.
Identificazione utente e accesso alle risorse
Quando pianifichi la sicurezza per un deployment SAP su Google Cloud, devi identificare:
- Gli account utente e le applicazioni che devono accedere alle risorseGoogle Cloud nel tuo progetto Google Cloud
- Le risorse Google Cloud specifiche nel tuo progetto a cui ogni utente deve accedere
Devi aggiungere ogni utente al tuo progetto aggiungendo il suo ID account Google al progetto come principal. Per un programma applicativo che utilizza risorseGoogle Cloud , crei un service account, che fornisce un'identità utente per il programma all'interno del progetto.
Le VM Compute Engine hanno un proprio account di servizio. Qualsiasi programma in esecuzione su una VM può utilizzare il account di servizio della VM, a condizione che il service account della VM disponga delle autorizzazioni delle risorse necessarie al programma.
Dopo aver identificato le Google Cloud risorse che ogni utente deve utilizzare, concedi a ciascun utente l'autorizzazione a utilizzare ogni risorsa assegnando ruoli specifici per le risorse all'utente. Esamina i ruoli predefiniti forniti da IAM per ogni risorsa e assegna a ogni utente ruoli che forniscono solo le autorizzazioni necessarie per completare le attività o le funzioni dell'utente e nient'altro.
Se hai bisogno di un controllo più granulare o restrittivo sulle autorizzazioni rispetto a quello fornito dai ruoli IAM predefiniti, puoi creare ruoli personalizzati.
Per saperne di più sui ruoli IAM necessari per i programmi SAP su Google Cloud, consulta Gestione di identità e accessi per i programmi SAP su Google Cloud.
Per una panoramica della gestione di identità e accessi per SAP su Google Cloud, consulta la panoramica della gestione di identità e accessi per SAP su Google Cloud.
Tipi di macchine bare metal per SAP HANA
Questa sezione fornisce informazioni sull'esecuzione di SAP HANA sui tipi di macchine bare metal forniti da Compute Engine, che includono:
Tipi di macchine bare metal C3: la serie C3 di macchine per uso generico include tipi di macchine bare metal.
- Per informazioni sui tipi di macchine bare metal C3 certificati da SAP per l'utilizzo con SAP HANA, consulta Tipi di macchine bare metal C3 per uso generico.
- Per informazioni sulle versioni del sistema operativo che puoi utilizzare con i tipi di macchine bare metal C3 per eseguire carichi di lavoro SAP HANA, consulta Sistemi operativi certificati per SAP HANA.
- Per informazioni sullo spazio di archiviazione a blocchi minimo necessario per eseguire SAP HANA sui tipi di macchine bare metal C3, consulta Dimensioni minime per i volumi Persistent Disk e Hyperdisk basati su SSD.
- Per saperne di più sulla serie di macchine C3, vedi Serie di macchine C3.
X4: la quarta generazione di tipi di macchine ottimizzate per la memoria offerte da Compute Engine. Queste macchine sono progettate principalmente per supportare carichi di lavoro SAP che richiedono fino a 32 TB di memoria.
- Per informazioni sui tipi di macchine X4 certificati da SAP per l'utilizzo con SAP HANA, consulta Tipi di macchine bare metal ottimizzate per la memoria X4.
- Per informazioni sulle versioni del sistema operativo che puoi utilizzare con i tipi di macchina X4 per eseguire i carichi di lavoro SAP HANA, consulta Sistemi operativi certificati per SAP HANA.
- Per informazioni sull'archiviazione a blocchi supportata per l'esecuzione di SAP HANA sui tipi di macchine X4, consulta Archiviazione a blocchi supportata per X4.
- Per saperne di più sulla serie di macchine X4, consulta Serie di macchine X4.
Archiviazione a blocchi supportata per X4
Per fornire spazio di archiviazione a blocchi per l'esecuzione di carichi di lavoro SAP HANA su macchine X4, puoi utilizzare volumi Hyperdisk Extreme o Hyperdisk bilanciato.
Per informazioni sulle configurazioni di archiviazione consigliate da Google Cloud per le istanze X4, consulta le sezioni seguenti:
- Configurazione ottimizzata per i costi
- Configurazione ottimizzata per il rendimento
- Configurazione flessibile delle prestazioni
Configurazione con ottimizzazione dei costi
La tabella seguente mostra una configurazione di archiviazione ottimizzata per i costi per l'esecuzione di SAP HANA sui tipi di macchine X4. Le dimensioni nella tabella seguente presuppongono che tu stia montando tutti i volumi SAP HANA su dischi singoli.
Tipo di macchina | Volume di avvio (GB) | /usr/sap (GB) |
/hana/shared (GB) |
Dimensione /hana/log (GB), IOPS e throughput |
/hana/data (GB), IOPS e throughput |
---|---|---|---|---|---|
Hyperdisk bilanciato | |||||
x4-megamem-960-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e 2400 Mbps di throughput | 16.384 GB con 16.384 IOPS e 2400 Mbps di throughput |
x4-megamem-1440-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e 2400 Mbps di throughput | 24.576 GB con 24.576 IOPS e 2400 Mbps di throughput |
x4-megamem-1920-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e 2400 Mbps di throughput | 32.768 GB con 32.768 IOPS e throughput di 2400 Mbps |
Configurazione ottimizzata per le prestazioni
La tabella seguente mostra una configurazione di archiviazione ottimizzata per le prestazioni per l'esecuzione di SAP HANA sui tipi di macchine X4. Le dimensioni nella tabella seguente presuppongono che tu stia montando tutti i volumi SAP HANA su dischi singoli.
Tipo di macchina | Volume di avvio (GB) | /usr/sap (GB) |
/hana/shared (GB) |
Dimensione /hana/log (GB), IOPS e throughput |
/hana/data (GB), IOPS e throughput |
---|---|---|---|---|---|
Hyperdisk bilanciato | Hyperdisk Extreme | ||||
x4-megamem-960-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e 2400 Mbps di throughput | 16.384 GB con 32.768 IOPS e 5000 Mbps di throughput |
x4-megamem-1440-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e 2400 Mb/s di throughput | 24.576 GB con 49.152 IOPS e 5000 Mb/s di throughput |
x4-megamem-1920-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e 2400 Mbps di throughput | 32.768 GB con 65.536 IOPS e 5000 Mbps di throughput |
Configurazione flessibile delle prestazioni
La tabella seguente mostra una configurazione di archiviazione che offre prestazioni flessibili per l'esecuzione di SAP HANA sui tipi di macchine X4. Le dimensioni nella tabella seguente presuppongono che tu stia montando tutti i volumi SAP HANA su singoli dischi.
Tipo di macchina | Volume di avvio (GB) | /usr/sap (GB) |
/hana/shared (GB) |
Dimensione /hana/log (GB), IOPS e throughput |
/hana/data (GB), IOPS e throughput |
---|---|---|---|---|---|
Hyperdisk bilanciato | Hyperdisk Extreme | ||||
x4-megamem-960-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e 2500 Mbps di throughput | 16.384 GB con 32.768 IOPS e 5000 Mbps di throughput |
x4-megamem-1440-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e 2500 Mbps di throughput | 24.576 GB con 49.152 IOPS e 5000 Mbps di throughput |
x4-megamem-1920-metal |
50 | 32 | 1024 | 512 GB con 10.000 IOPS e 2500 Mbps di throughput | 32.768 GB con 65.536 IOPS e 5000 Mbps di throughput |
Automazione del deployment
Per eseguire SAP HANA, puoi eseguire il deployment delle istanze Bare Metal utilizzando le configurazioni Terraform fornite da Google Cloud. Queste configurazioni sono progettate per eseguire le seguenti operazioni per impostazione predefinita:
- Esegui il deployment dei volumi Hyperdisk Extreme per ospitare i volumi di dati e log SAP HANA. Per eseguire il deployment dei volumi Hyperdisk Balanced, utilizza
l'argomento Terraform
disk_type
. - Attiva l'opzione di riavvio rapido di SAP HANA.
- Se ospiti il volume di backup SAP HANA su un disco, queste configurazioni Terraform
ne eseguono il deployment di un volume Hyperdisk Balanced per impostazione predefinita. Il deployment di questo disco è determinato dall'argomento Terraform
backup_disk_type
.
Per informazioni sulle configurazioni Terraform fornite da Google Cloud per il deployment di SAP HANA, consulta Soluzioni SAP supportate.
Attività post-deployment
Dopo aver eseguito il deployment di un'istanza bare metal per eseguire SAP HANA, ti consigliamo di procedere nel seguente modo:
- Assicurati che sia installata la versione 3.8 (la più recente) dell'agente per SAP diGoogle Cloud. Per informazioni su come installare l'agente, consulta Installare e configurare l'agente per SAP di Google Cloudsu un'istanza VM di Compute Engine. Per informazioni su come eseguire l'aggiornamento all'ultima versione, vedi Aggiornare l'agente per SAP di Google Cloud.
- Sulle istanze X4, ottimizza la configurazione del sistema operativo per supportare al meglio i workload SAP HANA. Puoi farlo utilizzando l'agente per SAP di Google Cloud. Per ulteriori informazioni, consulta Configura il sistema operativo guest sulle istanze bare metal.
- Valuta il tuo workload SAP utilizzando Workload Manager, un servizio di convalida basato su regole che ti consente di analizzare i tuoi workload e rilevare deviazioni da standard, regole e best practice prescritti da SAP,Google Cloude fornitori di sistemi operativi. Per informazioni su come valutare il tuo carico di lavoro SAP, vedi Crea ed esegui una valutazione. Per informazioni sulle valutazioni supportate per i carichi di lavoro SAP, consulta Best practice di Workload Manager per SAP.
Hyperthreading
L'hyperthreading è abilitato per impostazione predefinita ed è l'impostazione consigliata per tutti i tipi di macchine Compute Engine.
Per prestazioni ottimali di SAP HANA su istanze di calcolo con oltre 1000 vCPU, ti consigliamo vivamente di utilizzare SAP HANA 2.0 SPS7 revisione 76 o successiva.
Se esegui una versione precedente di SAP HANA con un workload OLTP su istanze di calcolo con oltre 1000 vCPU, la disattivazione dell'hyperthreading potrebbe comportare un vantaggio marginale in termini di prestazioni. Ti consigliamo di testare questa funzionalità durante il test di carico. Per informazioni su come disattivare l'hyperthreading per l'istanza X4 utilizzando l'agente di Google Cloudper SAP, vedi Disattivare l'hyperthreading per un'istanza X4.
Considerazioni su prezzi e quota per SAP HANA
Sei responsabile dei costi sostenuti per l'utilizzo delle risorse create seguendo questa guida al deployment. Utilizza il Calcolatore prezzi per stimare i costi effettivi.
Quote
SAP HANA richiede più CPU e memoria rispetto a molti carichi di lavoro su Google Cloud. Se hai un nuovo account Google Cloud o se non hai richiesto un aumento della quota, dovrai farlo per eseguire il deployment di SAP HANA.
La tabella seguente mostra i valori di quota per i sistemi SAP HANA con scalabilità verticale e singolo host in base al tipo di istanza VM.
Per un sistema SAP HANA scalabile orizzontalmente o per più sistemi scalabili verticalmente, devi includere gli importi totali delle risorse per tutti i sistemi. Per indicazioni su come determinare i requisiti di spazio di archiviazione per i sistemi di scalabilità orizzontale, vedi Determinare le dimensioni del disco permanente.
Visualizza la quota esistente e confrontala con i requisiti delle risorse (CPU, memoria e spazio di archiviazione) per capire quale aumento richiedere. A questo punto, puoi richiedere un aumento del limite di quota.
Sebbene il disco permanente con carico estremo (pd-extreme
) sia ancora certificato per l'uso con SAP
HANA, ti consigliamo di utilizzare Hyperdisk Extreme, che offre
prestazioni superiori. Se vuoi utilizzare dischi permanenti estremi, devi
eseguire il provisioning utilizzando le dimensioni di Hyperdisk Extreme.
Disco permanente con carico bilanciato
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
n1-highmem-32 |
32 | 208 | 943 |
n1-highmem-64 |
64 | 416 | 1155 |
n1-highmem-96 |
96 | 624 | 1716 |
n2-highmem-32 |
32 | 256 | 943 |
n2-highmem-48 |
48 | 384 | 1068 |
n2-highmem-64 |
64 | 512 | 1414 |
n2-highmem-80 |
80 | 640 | 1.760 |
n2-highmem-96 |
96 | 768 | 2105 |
n2-highmem-128 |
128 | 864 | 2364 |
c3-standard-44 |
44 | 176 | 507 |
c3-highmem-44 |
44 | 352 | 982 |
c3-highmem-88 |
88 | 704 | 1932 |
c3-highmem-176 |
176 | 1408 | 3257 |
m1-megamem-96 |
96 | 1433 | 3287 |
m1-ultramem-40 |
40 | 961 | 2.626 |
m1-ultramem-80 |
80 | 1922 | 3874 |
m1-ultramem-160 |
160 | 3844 | 6180 |
m2-megamem-416 |
416 | 5888 | 8.633 |
m2-ultramem-208 |
208 | 5888 | 8.633 |
m2-ultramem-416 |
416 | 11.766 | 15.660 |
m2-hypermem-416 |
416 | 8.832 | 12.166 |
m3-ultramem-32 |
32 | 976 | 2667 |
m3-ultramem-64 |
64 | 1952 | 3910 |
m3-ultramem-128 |
128 | 3904 | 6252 |
m3-megamem-64 |
64 | 976 | 2667 |
m3-megamem-128 |
128 | 1952 | 3910 |
Disco permanente SSD
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
n1-highmem-32 |
32 | 208 | 593 |
n1-highmem-64 |
64 | 416 | 1155 |
n1-highmem-96 |
96 | 624 | 1716 |
n2-highmem-32 |
32 | 256 | 723 |
n2-highmem-48 |
48 | 384 | 1068 |
n2-highmem-64 |
64 | 512 | 1414 |
n2-highmem-80 |
80 | 640 | 1.760 |
n2-highmem-96 |
96 | 768 | 2105 |
n2-highmem-128 |
128 | 864 | 2364 |
c3-standard-44 |
44 | 176 | 507 |
c3-highmem-44 |
44 | 352 | 982 |
c3-highmem-88 |
88 | 704 | 1932 |
c3-highmem-176 |
176 | 1408 | 3257 |
m1-megamem-96 |
96 | 1433 | 3287 |
m1-ultramem-40 |
40 | 961 | 2.626 |
m1-ultramem-80 |
80 | 1922 | 3874 |
m1-ultramem-160 |
160 | 3844 | 6180 |
m2-megamem-416 |
416 | 5888 | 8.633 |
m2-ultramem-208 |
208 | 5888 | 8.633 |
m2-ultramem-416 |
416 | 11.766 | 15.660 |
m2-hypermem-416 |
416 | 8.832 | 12.166 |
m3-ultramem-32 |
32 | 976 | 2667 |
m3-ultramem-64 |
64 | 1952 | 3910 |
m3-ultramem-128 |
128 | 3904 | 6252 |
m3-megamem-64 |
64 | 976 | 2667 |
m3-megamem-128 |
128 | 1952 | 3910 |
Hyperdisk Extreme
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
n2-highmem-80 |
80 | 640 | 1.760 |
n2-highmem-96 |
96 | 768 | 2105 |
n2-highmem-128 |
128 | 864 | 2364 |
c3-highmem-88 |
88 | 704 | 1932 |
c3-highmem-176 |
176 | 1408 | 3257 |
c3-highmem-192-metal |
192 | 1536 | 3411 |
c4-highmem-96 |
96 | 744 | 2040 |
c4-highmem-192 |
192 | 1488 | 3353 |
m1-megamem-96 |
96 | 1433 | 3287 |
m1-ultramem-80 |
80 | 1922 | 3874 |
m1-ultramem-160 |
160 | 3844 | 6180 |
m2-megamem-416 |
416 | 5888 | 8.633 |
m2-ultramem-208 |
208 | 5888 | 8.633 |
m2-ultramem-416 |
416 | 11.766 | 15.660 |
m2-hypermem-416 |
416 | 8.832 | 12.166 |
m3-ultramem-64 |
64 | 1952 | 3910 |
m3-ultramem-128 |
128 | 3904 | 6252 |
m3-megamem-64 |
64 | 976 | 2667 |
m3-megamem-128 |
128 | 1952 | 3910 |
m4-megamem-112 |
112 | 1488 | 3353 |
m4-megamem-224 |
224 | 2976 | 5139 |
m4-ultramem-112 |
112 | 2976 | 5139 |
m4-ultramem-224 |
224 | 5952 | 8710 |
x4-megamem-960-metal |
960 | 16.384 | 17.952 |
x4-megamem-1440-metal |
1440 | 24.576 | 26.144 |
x4-megamem-1920-metal |
1920 | 32.768 | 34.336 |
Hyperdisk bilanciato
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
c3-standard-44 |
44 | 176 | 507 |
c3-highmem-44 |
44 | 352 | 982 |
c3-highmem-88 |
88 | 704 | 1932 |
c3-highmem-176 |
176 | 1408 | 3257 |
c3-highmem-192-metal |
192 | 1536 | 3411 |
c4-highmem-32 |
32 | 248 | 701 |
c4-highmem-48 |
48 | 372 | 1036 |
c4-highmem-96 |
96 | 744 | 2040 |
c4-highmem-192 |
192 | 1488 | 3353 |
m1-megamem-96 |
96 | 1433 | 3287 |
m1-ultramem-40 |
40 | 961 | 2.626 |
m1-ultramem-80 |
80 | 1922 | 3874 |
m1-ultramem-160 |
160 | 3844 | 6180 |
m2-megamem-416 |
416 | 5888 | 8.633 |
m2-ultramem-208 |
208 | 5888 | 8.633 |
m2-ultramem-416 |
416 | 11.766 | 15.660 |
m2-hypermem-416 |
416 | 8.832 | 12.166 |
m3-ultramem-32 |
32 | 976 | 2667 |
m3-ultramem-64 |
64 | 1952 | 3910 |
m3-ultramem-128 |
128 | 3904 | 6252 |
m3-megamem-64 |
64 | 976 | 2667 |
m3-megamem-128 |
128 | 1952 | 3910 |
m4-megamem-28 |
28 | 372 | 1036 |
m4-megamem-56 |
56 | 744 | 892 |
m4-megamem-112 |
112 | 1488 | 3353 |
m4-megamem-224 |
224 | 2976 | 5139 |
m4-ultramem-56 |
56 | 2976 | 3353 |
m4-ultramem-112 |
112 | 2976 | 5139 |
m4-ultramem-224 |
224 | 5952 | 8710 |
x4-megamem-960-metal |
960 | 16.384 | 17.952 |
x4-megamem-1440-metal |
1440 | 24.576 | 26.144 |
x4-megamem-1920-metal |
1920 | 32.768 | 34.336 |
Disco permanente standard
Tipo di VM Compute Engine | vCPU | Memoria (GB) | Quota (GB) |
---|---|---|---|
n1-highmem-32 |
32 | 208 | 448 |
n1-highmem-64 |
64 | 416 | 864 |
n1-highmem-96 |
96 | 624 | 1280 |
n2-highmem-32 |
32 | 256 | 544 |
n2-highmem-48 |
48 | 384 | 800 |
n2-highmem-64 |
64 | 512 | 1056 |
n2-highmem-80 |
80 | 640 | 1.312 |
n2-highmem-96 |
96 | 768 | 1568 |
n2-highmem-128 |
128 | 864 | 1760 |
m1-megamem-96 |
96 | 1433 | 2898 |
m1-ultramem-40 |
40 | 961 | 1.954 |
m1-ultramem-80 |
80 | 1922 | 3876 |
m1-ultramem-160 |
160 | 3844 | 7720 |
m2-megamem-416 |
416 | 5888 | 11.832 |
m2-ultramem-208 |
208 | 5888 | 11.832 |
m2-ultramem-416 |
416 | 11.766 | 23.564 |
m2-hypermem-416 |
416 | 8.832 | 17.696 |
Licenze
L'esecuzione di SAP HANA su Google Cloud richiede l'utilizzo del modello Bring Your Own License (BYOL).
Per ulteriori informazioni da SAP sulla gestione delle licenze SAP HANA, consulta Chiavi di licenza per il database SAP HANA.
Architetture di deployment
Su Google Cloud, puoi eseguire il deployment di SAP HANA in architetture scalabili verticalmente e orizzontalmente.
Architettura di scalabilità verticale
Il seguente diagramma mostra l'architettura di scalabilità verticale. Nel diagramma, nota
sia il deployment su Google Cloud sia il layout del disco. Puoi utilizzare Cloud Storage
per eseguire il backup dei backup locali disponibili in /hanabackup
. Questo punto di montaggio deve avere
dimensioni uguali o maggiori del punto di montaggio dei dati.
Su Google Cloud, un'architettura di scalabilità verticale a host singolo SAP HANA può includere i seguenti componenti:
Un'istanza Compute Engine per il database SAP HANA con una larghezza di banda di rete fino a 32 Gbps o fino a 100 Gbps su tipi di macchine selezionati utilizzando reti a larghezza di banda elevata. Per informazioni sui tipi di macchina certificati per l'uso con SAP HANA, consulta Tipi di macchina certificati per SAP HANA.
Se scegli di eseguire il deployment di un'istanza VM, puoi anche eseguirlo su un nodo single-tenant. Per ulteriori informazioni, consulta Single-tenancy.
Volumi di dischi permanenti o Hyperdisk di Compute Engine basati su SSD, come segue:
Un disco per ciascuna delle seguenti directory:
/hana/data
,/hana/log
,/hana/shared
e/usr/sap
. Per informazioni sui consigli sui dischi per SAP HANA, consulta Archiviazione su disco permanente. Per prestazioni ottimali di SAP, le dimensioni dei volumi Persistent Disk o Hyperdisk devono essere quelle indicate nella tabella in Dimensioni minime per i volumi Persistent Disk e Hyperdisk basati su SSD.Un disco permanente bilanciato per il disco di avvio.
(Facoltativo) Un disco per il backup del database SAP HANA.
Regole firewall di Compute Engine che limitano l'accesso alle istanze.
Agente per SAP diGoogle Cloud. A partire dalla versione 2.0, puoi configurare questo agente per raccogliere le metriche di monitoraggio SAP HANA, che ti consentono di monitorare le tue istanze SAP HANA. A partire dalla versione 3.0, puoi anche utilizzare la funzionalità Backint per archiviare i backup SAP HANA direttamente nel bucket Cloud Storage e recuperarli in base alle esigenze.
Una subnet facoltativa, ma consigliata, con una topologia e intervalli IP personalizzati nella regione Google Cloud di tua scelta. Il database SAP HANA e le altre istanze Compute Engine vengono avviati all'interno di questa subnet. Puoi utilizzare una subnet esistente per SAP HANA.
Componenti facoltativi:
- SAP HANA Cockpit o SAP HANA Studio su una VM Compute Engine di piccole dimensioni.
Se esegui il provisioning del sistema SAP HANA senza un IP pubblico, non può connettersi direttamente alle risorse tramite la rete internet pubblica. Pertanto, devi fornire un metodo indiretto per l'accesso a internet utilizzando le seguenti opzioni:
Configura l'accesso privato Google in modo che la tua VM possa accedere alle API Google Cloud .
Utilizza Cloud NAT o configura una VM come gateway NAT per accedere alla rete internet pubblica.
Per scopi amministrativi, puoi utilizzare l'inoltro TCP per connetterti ai sistemi. Per informazioni sull'utilizzo di Identity-Aware Proxy per l'inoltro TCP, consulta Utilizzo di IAP per inoltro TCP.
Utilizza la VM Compute Engine configurata come bastion host per accedere a internet pubblico.
Architetture di scale out
L'architettura di scalabilità orizzontale è costituita da un host master, da un numero di host worker e, facoltativamente, da uno o più host di standby. Gli host sono interconnessi tramite una rete che supporta l'invio di dati tra host a velocità fino a 32 Gbps o fino a 100 Gbps su tipi di macchine selezionati utilizzando reti a larghezza di banda elevata.
Man mano che la domanda di carico di lavoro aumenta, soprattutto quando si utilizza l'elaborazione analitica online (OLAP), un'architettura di scalabilità orizzontale multihost può distribuire il carico su tutti gli host.
Il seguente diagramma mostra un'architettura di scalabilità orizzontale per SAP HANA su Google Cloud:
Gli host di standby supportano la soluzione di recupero dagli errori di failover automatico dell'host SAP HANA. Per ulteriori informazioni sul failover automatico dell'host su Google Cloud, consulta Failover automatico dell'host SAP HANA su Google Cloud.
Il seguente diagramma mostra un'architettura di scalabilità orizzontale con failover automatico dell'host su Google Cloud.
Strutture del disco per i sistemi di scalabilità orizzontale SAP HANA su Google Cloud
Ad eccezione degli host di standby, ogni host ha i propri volumi /hana/data
, /hana/log
e, di solito, /usr/sap
su dischi permanenti o Hyperdisk basati su SSD, che forniscono servizi di I/O coerenti e con IOPS elevati. L'host master funge anche da master NFS per i volumi /hana/shared
e /hanabackup
e questo master NFS è montato su ogni host worker e di standby.
Per un host di standby, i volumi /hana/data
e /hana/log
non vengono montati
finché non si verifica un takeover.
Componenti di un sistema SAP HANA scalabile orizzontalmente su Google Cloud
Un'architettura di scalabilità orizzontale SAP HANA multihost su Google Cloud contiene i seguenti componenti:
1 istanza VM di Compute Engine per ogni host SAP HANA nel sistema, inclusi 1 host master, fino a 15 host worker e fino a 3 host di standby facoltativi.
Ogni VM utilizza lo stesso tipo di macchina Compute Engine. Per informazioni sui tipi di macchina certificati per l'uso con SAP HANA, vedi Tipi di macchina certificati per SAP HANA.
Volumi Persistent Disk o Hyperdisk basati su SSD, come segue:
- Ogni VM deve includere un disco montato nella posizione corretta.
- (Facoltativo) Se non esegui il deployment di un sistema di failover automatico dell'host SAP HANA, un disco per il volume locale
/hanabackup
per ogni istanza VM.
Una soluzione NFS distribuita separatamente per la condivisione dei volumi
/hana/shared
e/hanabackup
con gli host worker e di standby. Puoi utilizzare Filestore o un'altra soluzione NFS.Regole firewall di Compute Engine o altri controlli dell'accesso alla rete che limitano l'accesso alle istanze Compute Engine consentendo la comunicazione tra le istanze e qualsiasi altra risorsa distribuita o remota richiesta dal sistema SAP HANA.
Agente per SAP diGoogle Cloud. A partire dalla versione 2.0, puoi configurare questo agente per raccogliere le metriche di monitoraggio SAP HANA, che ti consentono di monitorare le tue istanze SAP HANA. A partire dalla versione 3.0, puoi anche utilizzare la funzionalità Backint per archiviare i backup SAP HANA direttamente nel bucket Cloud Storage e recuperarli in base alle esigenze.
Una subnet facoltativa, ma consigliata, con una topologia e intervalli IP personalizzati nella regione Google Cloud di tua scelta. Il database SAP HANA e le altre istanze Compute Engine vengono avviate all'interno di questa subnet. Se preferisci, puoi utilizzare una subnet esistente.
Componenti facoltativi:
- SAP HANA Cockpit o SAP HANA Studio su una VM Compute Engine di piccole dimensioni.
Se esegui il provisioning del sistema SAP HANA senza un IP pubblico, non può connettersi direttamente alle risorse tramite la rete internet pubblica. Pertanto, devi fornire un metodo indiretto per l'accesso a internet utilizzando le seguenti opzioni:
Configura l'accesso privato Google in modo che la tua VM possa accedere alle API Google Cloud .
Utilizza Cloud NAT o configura una VM come gateway NAT per accedere alla rete internet pubblica.
Per scopi amministrativi, puoi utilizzare l'inoltro TCP per connetterti ai sistemi. Per informazioni sull'utilizzo di Identity-Aware Proxy per l'inoltro TCP, consulta Utilizzo di IAP per inoltro TCP.
Utilizza la VM Compute Engine configurata come bastion host per accedere a internet pubblico.
Alta disponibilità per i sistemi SAP HANA su Google Cloud
Per progettare una configurazione ad alta disponibilità per SAP HANA su Google Cloud, puoi utilizzare una combinazione di funzionalità native di Google Cloud, SAP e del sistema operativo.
Per informazioni sulle opzioni di alta disponibilità, consulta la Guida alla pianificazione dell'alta disponibilità di SAP HANA.
Automation per i deployment SAP HANA
Google Cloud fornisce file di configurazione Terraform che puoi utilizzare per automatizzare il deployment dell'infrastruttura Google Cloud e, facoltativamente, di SAP HANA.
Le opzioni di automazione del deployment fornite da Google Cloud supportano i seguenti scenari di deployment di SAP HANA:
- Scale up
- Scalabilità verticale in un cluster ad alta disponibilità con due nodi
- Esegui lo scale out senza nodi di standby
- Scalare orizzontalmente senza nodi di standby in un cluster ad alta disponibilità
- Scalabilità orizzontale con nodi di standby di failover automatico dell'host SAP HANA
Per ulteriori informazioni sull'automazione per gli scenari di deployment di scale up o scale out, consulta:
- Automazione del deployment per i sistemi di scalabilità verticale
- Automazione del deployment per sistemi di scalabilità orizzontale
Automatizzare il deployment dell'istanza SAP HANA
Se vuoi, puoi includere l'installazione di SAP HANA con il deployment automatico dell'infrastruttura Google Cloud .
Gli script di installazione che Google Cloud forniscono l'installazione di SAP HANA dopo il deployment dell'infrastruttura.
Se si verificano problemi che impediscono l'installazione di un'istanza SAP HANA, l'infrastruttura viene comunque di solito sottoposta a deployment e configurata. A questo punto puoi utilizzare l'infrastruttura di cui è stato eseguito il deployment e installare SAP HANA manualmente oppure eliminare l'infrastruttura, correggere il problema ed eseguire di nuovo l'automazione del deployment finché l'istanza SAP HANA non viene installata correttamente.
Quando utilizzi gli script di installazione che Google Cloud per installare SAP HANA, devi fornire i valori per determinati parametri. Se ometti questi parametri o non specifichi valori validi per tutti, lo script di installazione non riesce a installare l'istanza SAP HANA nell'infrastruttura di cui è stato eseguito il deployment.
Quando utilizzi i file di configurazione Terraform forniti da Google Cloud
per installare SAP HANA, devi fornire valori validi per i seguenti
argomenti: sap_hana_deployment_bucket
, sap_hana_sid
,
sap_hana_sidadm_uid
, sap_hana_sidadm_password
e
sap_hana_system_password
. Per saperne di più sugli argomenti di Terraform, consulta la Guida al deployment di scalabilità verticale di SAP HANA.
Gestione delle password
Per automatizzare l'installazione di SAP HANA sulle VM Compute Engine di cui è stato eseguito il deployment, devi specificare le password per l'utente SIDadm
e per l'utente del database. Puoi specificare queste password nel file di configurazione
Terraform nei seguenti modi:
(Consigliato) Per fornire le password agli script di installazione in modo sicuro, puoi creare secret utilizzando Secret Manager, un servizio a pagamento di Google Cloud, e poi specificare i nomi dei secret come valori per gli argomenti
sap_hana_sidadm_password_secret
esap_hana_system_password_secret
.Per informazioni sui prezzi di Secret Manager, consulta Prezzi di Secret Manager.
In alternativa, puoi specificare le password in testo normale negli argomenti
sap_hana_sidadm_password
esap_hana_system_password
.
Deployment del disco tramite Terraform
Quando automatizzi il deployment di SAP HANA utilizzando la configurazione Terraform fornita da Google Cloud, il deployment predefinito del disco è il seguente:
Volume o directory | Disco predefinito di cui è stato eseguito il deployment per le istanze X4 | Disco predefinito di cui è stato eseguito il deployment per le istanze bare metal C3 | Disco predefinito di cui è stato eseguito il deployment per le istanze VM |
---|---|---|---|
Volume di avvio | Hyperdisk bilanciato | Hyperdisk bilanciato | Disco permanente bilanciato |
/hana/data |
Hyperdisk Extreme | Hyperdisk bilanciato | Disco permanente SSD |
/hana/log |
Hyperdisk Extreme | Hyperdisk bilanciato | Disco permanente SSD |
/hana/shared |
Hyperdisk bilanciato | Hyperdisk bilanciato |
|
/hanabackup |
Hyperdisk bilanciato | Hyperdisk bilanciato | Disco permanente bilanciato |
/usr/sap |
Hyperdisk bilanciato | Hyperdisk bilanciato |
|
VM personalizzate e deployment automatizzati
I file di configurazione Terraform forniti da Google Cloud non supportano il deployment di VM personalizzate di Compute Engine.
Se devi utilizzare un tipo di VM personalizzato, esegui prima il deployment di un tipo di VM predefinito di piccole dimensioni e, al termine del deployment, personalizza la VM in base alle tue esigenze.
Per saperne di più sulla modifica delle VM, vedi Modifica delle configurazioni delle VM per i sistemi SAP.
Automazione del deployment per sistemi di scalabilità verticale
Google Cloud fornisce file di configurazione Terraform che puoi utilizzare per automatizzare il deployment di sistemi SAP HANA scalabili verticalmente a host singolo.
I file di configurazione di Terraform possono essere utilizzati per eseguire il deployment di:
Un sistema SAP HANA scalabile verticalmente autonomo.
Per saperne di più, consulta la Guida al deployment di scalabilità verticale di SAP HANA di Terraform.
Un sistema SAP HANA scalabile verticalmente attivo e in standby su un cluster Linux ad alta disponibilità.
Per ulteriori informazioni, consulta Terraform: guida alla configurazione del cluster ad alta disponibilità con scalabilità verticale SAP HANA.
I file di configurazione Terraform possono eseguire il deployment delle VM, dei dischi permanenti, di SAP HANA e, nel caso del cluster HA Linux, dei componenti HA richiesti.
Per informazioni sulla creazione di questi componenti, consulta la sezione Prerequisiti della Guida all'implementazione dello scale up di SAP HANA.
Automazione del deployment per sistemi di scale out
Google Cloud fornisce file di configurazione Terraform che puoi utilizzare per automatizzare il deployment dei sistemi di scalabilità orizzontale multihost SAP HANA.
- Per eseguire il deployment di un sistema scalabile orizzontalmente che non include il failover automatico dell'host SAP HANA, consulta la Guida al deployment di SAP HANA: Terraform.
- Per eseguire il deployment di un sistema scalabile orizzontalmente senza host di standby in un cluster Linux ad alta disponibilità, consulta Terraform: guida alla configurazione del cluster ad alta disponibilità SAP HANA.
- Per eseguire il deployment di un sistema di scalabilità orizzontale che include host di standby, consulta la Guida al deployment di Terraform: sistema di scalabilità orizzontale SAP HANA con failover automatico dell'host.
La configurazione di Terraform può eseguire il deployment delle VM, dei dischi permanenti e di SAP HANA. Possono anche mappare i punti di mount NFS ai volumi condivisi e di backup SAP HANA. Per i deployment di scalabilità orizzontale multihost, la configurazione di Terraform può anche eseguire il deployment di nuove istanze Filestore per ospitare i volumi condivisi e di backup di SAP HANA.
Soluzioni di condivisione di file per implementazioni di scalabilità orizzontale e alta disponibilità multihost
La configurazione Terraform che Google Cloud fornisce il deployment di scalabilità orizzontale multihost SAP HANA crea per impostazione predefinita esportazioni NFS per i volumi /hana/shared
e /hanabackup
nell'istanza VM SAP HANA primaria e condivide i volumi con i nodi worker.
Tuttavia, se vuoi utilizzare una soluzione NFS per condividere i volumi /hana/shared
e
/hanabackup
con gli host worker, puoi utilizzare una delle
seguenti opzioni:
Per la configurazione dello scale-out multi-host:
Per utilizzare una soluzione NFS esistente di cui hai eseguito il deployment su Google Cloud, devi specificare i punti di montaggio NFS dei volumi
/hana/shared
e/hanabackup
rispettivamente negli argomentisap_hana_shared_nfs
esap_hana_backup_nfs
nel file di configurazione Terraform.Per eseguire il deployment di nuove istanze Filestore e associare le relative condivisioni file ai volumi
/hana/shared
e/hanabackup
, devi definire una risorsagoogle_filestore_instance
e poi specificare i nomi delle condivisioni file negli argomentisap_hana_shared_nfs_resource
esap_hana_backup_nfs_resource
, rispettivamente, nel file di configurazione Terraform.
Per visualizzare un esempio, consulta la configurazione di esempio.
Per la configurazione HA con scalabilità orizzontale:
- Per utilizzare una soluzione NFS esistente che hai implementato su
Google Cloud, devi specificare i punti di montaggio NFS dei volumi
/hana/shared
e/hanabackup
negli argomentiprimary_sap_hana_shared_nfs
eprimary_sap_hana_backup_nfs
per il sistema SAP HANA primario e negli argomentisecondary_sap_hana_shared_nfs
esecondary_sap_hana_backup_nfs
per il sistema SAP HANA secondario, rispettivamente, nel file di configurazione Terraform.
Per visualizzare un esempio, consulta la configurazione di esempio.
- Per utilizzare una soluzione NFS esistente che hai implementato su
Google Cloud, devi specificare i punti di montaggio NFS dei volumi
Assistenza
Per problemi relativi a servizi o infrastrutture di Google Cloud , contatta l'assistenza clienti. Puoi trovare i dati di contatto nella pagina Panoramica dell'assistenza nella console Google Cloud . Se l'assistenza clienti determina che un problema risiede nei tuoi sistemi SAP, ti verrà indirizzato all'assistenza SAP.
Per problemi relativi ai prodotti SAP, registra la tua richiesta di assistenza con l'assistenza SAP.
SAP valuta la ticket di assistenza e, se sembra trattarsi di un problema di infrastruttura, la trasferisce al componenteGoogle Cloud appropriato del suo sistema: BC-OP-LNX-GOOGLE
o BC-OP-NT-GOOGLE
. Google Cloud
Requisiti di assistenza
Prima di poter ricevere assistenza per i sistemi SAP e l'infrastruttura e i serviziGoogle Cloudche utilizzano, devi soddisfare i requisiti minimi del piano di assistenza.
Per ulteriori informazioni sui requisiti minimi di assistenza per SAP su Google Cloud, consulta:
- Assistenza per SAP su Google Cloud
- Nota SAP 2456406 - SAP on Google Cloud Platform: Support Prerequisites (È necessario un account utente SAP)
Passaggi successivi
- Per ulteriori informazioni su SAP HANA dynamic tiering da SAP, consulta SAP HANA Dynamic Tiering.