Bandwidth jaringan


Google Cloud memperhitungkan bandwidth per instance komputasi, bukan per antarmuka jaringan virtual (vNIC) atau alamat IP. Jenis mesin instance menentukan rasio traffic keluar maksimum yang memungkinkan; tetapi, Anda hanya dapat mencapai tingkat traffic keluar maksimum yang dimungkinkan dalam situasi tertentu.

Halaman ini menguraikan batas bandwidth jaringan, yang berguna saat merencanakan deployment Anda. Halaman ini mengategorikan bandwidth menggunakan dua dimensi:

  • Traffic keluar atau masuk: Seperti yang digunakan di halaman ini, traffic keluar dan masuk selalu dari perspektif instance Google Cloud :
    • Paket yang dikirim dari Google Cloud instance menyusun traffic egress (keluar).
    • Paket yang dikirim ke Google Cloud instance menyusun traffic ingress (masuk).
  • Cara paket dirutekan: Paket dapat dirutekan dari instance pengirim atau ke instance penerima menggunakan rute yang next hop-nya berada dalam jaringan VPC atau rute di luar jaringan VPC.

Semua informasi di halaman ini berlaku untuk instance komputasi Compute Engine, serta produk yang bergantung pada instance Compute Engine. Misalnya, node Google Kubernetes Engine adalah instance Compute Engine.

Konfigurasi yang memengaruhi bandwidth jaringan

Untuk mendapatkan bandwidth masuk dan keluar setinggi mungkin, konfigurasi performa jaringan Tier_1 per VM untuk instance komputasi Anda.

Baik antarmuka jaringan virtual (vNIC) tambahan maupun alamat IP tambahan per vNIC tidak akan meningkatkan bandwidth masuk atau keluar untuk instance komputasi. Misalnya, VM C3 dengan 22 vCPU dibatasi hingga total bandwidth keluar 23 Gbps. Jika Anda mengonfigurasi VM C3 dengan dua vNIC, VM tersebut tetap dibatasi hingga total bandwidth keluar 23 Gbps, bukan bandwidth 23 Gbps per vNIC.

Dynamic Network Interface (Pratinjau) menggunakan bandwidth vNIC induknya. Tidak ada isolasi traffic dalam vNIC induk. Traffic jaringan dari NIC Dinamis dapat membuat NIC Dinamis lain yang terkait dengan vNIC induk yang sama kekurangan bandwidth. Untuk menghindari konflik ini, Anda dapat menggunakan kontrol traffic (TC) Linux untuk membuat kebijakan pembentukan traffic khusus aplikasi. Kebijakan ini membantu menerapkan keadilan atau jenis prioritas tertentu. Untuk memprioritaskan, Anda memetakan traffic (misalnya untuk NIC Dinamis) ke kelas traffic, lalu memetakan kelas traffic tersebut ke kualitas layanan. Untuk contoh pendekatan ini, lihat Pembentukan traffic dengan Red Hat.

NIC dinamis tidak didukung untuk instance Compute Engine yang menjalankan OS Windows.

Ringkasan bandwidth

Tabel berikut menggambarkan bandwidth maksimum yang mungkin berdasarkan apakah paket dikirim dari (egress) atau diterima oleh (ingress) instance komputasi dan metode perutean paket.

Batas bandwidth keluar

Pemilihan rute dalam
jaringan VPC
  • Terutama ditentukan oleh bandwidth traffic keluar maksimum per instance berdasarkan jenis mesin instance pengirim dan apakah jaringan Tier_1 diaktifkan atau tidak.

    • VM N2, N2D, C2, C2D, dan C4A dengan jaringan Tier_1 mendukung batas bandwidth traffic keluar hingga 100 Gbps.
    • VM H3 mendukung batas bandwidth traffic keluar VM-ke-VM hingga 200 Gbps.
    • Instance X4, A2, dan G2 mendukung batas bandwidth traffic keluar hingga 100 Gbps.
    • Instance A4X mendukung batas bandwidth traffic keluar hingga 2.000 GBps.
    • Instance A4 dan A3 mendukung batas bandwidth traffic keluar hingga 3.600 Gbps.
    • Instance M4, C4, C4D, C3, C3D, dan Z3 mendukung batas bandwidth traffic keluar hingga 200 Gbps dengan jaringan Tier_1.
  • Untuk faktor, definisi, dan skenario lainnya, lihat Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC.
Merutekan di luar
jaringan VPC
  • Terutama ditentukan oleh bandwidth traffic keluar maksimum per instance berdasarkan jenis mesin instance pengirim dan apakah jaringan Tier_1 diaktifkan atau tidak. Kecuali untuk VM H3, traffic keluar maksimum yang memungkinkan dari instance pengirim ke tujuan di luar jaringan VPC-nya tidak boleh melebihi berikut:

    • Total 7 Gbps saat jaringan Tier_1 tidak diaktifkan
    • Total 25 Gbps saat jaringan Tier_1 diaktifkan
    • 3 Gbps per aliran
  • Untuk faktor, definisi, dan peringatan lainnya, lihat Traffic keluar ke tujuan di luar jaringan VPC.

Batas bandwidth masuk

Pemilihan rute dalam
jaringan VPC
  • Umumnya, tarif masuk mirip dengan tarif keluar untuk jenis mesin.
  • Untuk mendapatkan bandwidth traffic masuk setinggi mungkin, aktifkan jaringan Tier_1.
  • Ukuran instance komputasi Anda, kapasitas NIC server, traffic yang masuk ke VM tamu lain yang berjalan pada hardware host yang sama, konfigurasi jaringan OS tamu Anda, dan jumlah pembacaan disk yang dilakukan oleh instance Anda semuanya dapat memengaruhi tingkat ingress.
  • Google Cloud tidak memberlakukan batasan tambahan terkait tarif masuk dalam jaringan VPC.
  • Untuk faktor, definisi, dan skenario lainnya, lihat Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC.
Merutekan di luar
jaringan VPC
  • Google Cloud melindungi setiap instance komputasi dengan membatasi traffic masuk yang dirutekan di luar jaringan VPC. Batasnya adalah tarif pertama dari tarif berikut yang ditemukan:

    • 1.800.000 pps (paket per detik)
    • 30 Gbps
  • Untuk seri mesin yang mendukung beberapa NIC fisik, seperti A3, batasnya adalah tarif pertama dari tarif berikut yang ditemukan:

    • 1.800.000 pps (paket per detik) per NIC fisik
    • 30 Gbps per NIC fisik
  • Untuk faktor, definisi, dan skenario lainnya, lihat Traffic masuk ke tujuan di luar jaringan VPC.

Bandwidth keluar

Google Cloud membatasi bandwidth keluar (traffic keluar) menggunakan kecepatan traffic keluar maksimum per instance. Tingkat ini didasarkan pada jenis mesin instance komputasi yang mengirim paket dan apakah tujuan paket dapat diakses menggunakan rute dalam jaringan VPC atau rute di luar jaringan VPC. Bandwidth keluar mencakup paket yang dikeluarkan oleh semua NIC instance dan data yang ditransfer ke semua volume Hyperdisk dan Persistent Disk yang terhubung ke instance.

Bandwidth traffic keluar maksimum per instance

Bandwidth traffic keluar maksimum per instance umumnya adalah 2 Gbps per vCPU, tetapi ada beberapa perbedaan dan pengecualian, bergantung pada seri mesin. Tabel berikut menunjukkan rentang batas maksimum bandwidth keluar untuk traffic yang dirutekan dalam jaringan VPC.

Tabel berikut merangkum bandwidth keluar maksimum untuk setiap seri mesin. Anda dapat menemukan bandwidth traffic keluar maksimum per instance untuk setiap jenis mesin yang tercantum di halaman kelompok mesin spesifiknya (menggunakan link untuk setiap seri mesin dalam tabel).

Batas keluar per instance maksimum
Seri mesin Standar Jaringan Tier_1
C4, C4A, dan C4D 100 Gbps 200 Gbps
C3 dan C3D 100 Gbps 200 Gbps
C2 dan C2D 32 Gbps 100 Gbps
E2 16 Gbps T/A
Inti bersama E2 2 Gbps T/A
H3 200 Gbps T/A
M4 100 Gbps 200 Gbps
M3 32 Gbps 100 Gbps
M2 32 Gbps di CPU Intel Cascade Lake atau yang lebih baru
16 Gbps di platform CPU lainnya
T/A
M1 32 Gbps T/A
N4 50 Gbps T/A
N2 dan N2D 32 Gbps 100 Gbps
N1 (tidak termasuk VM dengan 1 vCPU) 32 Gbps di CPU Intel Skylake dan yang lebih baru
16 Gbps di platform CPU yang lebih lama
T/A
Jenis mesin N1 dengan 1 vCPU 2 Gbps T/A
Inti bersama N1 (f1-micro dan g1-small) 1 Gbps T/A
T2A dan T2D 32 Gbps T/A
X4 100 Gbps T/A
Z3 100 Gbps 200 Gbps

Untuk mengetahui informasi bandwidth jaringan untuk Seri mesin yang dioptimalkan akselerator, lihat Mesin GPU dan jaringan.

Bandwidth traffic keluar maksimum per instance tidak dijamin. Bandwidth traffic keluar yang sebenarnya dapat diturunkan sesuai dengan faktor-faktor seperti daftar tidak lengkap berikut:

  • Menggunakan VirtIO, bukan gVNIC dengan instance komputasi yang mendukung keduanya
  • Ukuran paket
  • Overhead protokol
  • Jumlah alur
  • Setelan driver Ethernet pada OS tamu instance komputasi, seperti pengurangan beban checksum dan pengurangan beban segmentasi TCP (TSO)
  • Kemacetan jaringan
  • Jika I/O Persistent Disk bersaing dengan traffic keluar jaringan lain, 60% dari bandwidth jaringan maksimum diberikan ke operasi tulis Persistent Disk, dan tersisa 40% untuk traffic keluar jaringan lain. Lihat Faktor yang memengaruhi performa disk untuk mengetahui detail selengkapnya.

Untuk mendapatkan bandwidth traffic keluar maksimum per instance sebesar mungkin:

  • Aktifkan performa jaringan per VM Tier_1 dengan jenis mesin yang lebih besar.
  • Gunakan unit transmisi maksimum (MTU) jaringan VPC terbesar yang didukung oleh topologi jaringan Anda. MTU yang lebih besar dapat mengurangi overhead header paket dan meningkatkan throughput data payload.
  • Gunakan driver gVNIC versi terbaru.
  • Gunakan seri mesin generasi ketiga atau yang lebih baru yang menggunakan Titanium untuk mengurangi beban pemrosesan jaringan dari CPU host.

Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC

Dari perspektif instance pengirim dan untuk alamat IP tujuan yang dapat diakses dengan menggunakan rute dalam jaringan VPC, Google Cloud Google Cloud membatasi traffic keluar menggunakan aturan ini:

  • Bandwidth keluar maksimum per VM: Bandwidth keluar maksimum per instance yang dijelaskan di bagian Bandwidth keluar maksimum per instance.
  • Bandwidth traffic keluar antar-regional per project: Jika instance pengirim dan tujuan internal atau next hop berada di region yang berbeda,Google Cloud menerapkan kuota berdasarkan region dan project instance pengirim serta region tujuan internal atau next hop. Untuk mengetahui informasi selengkapnya tentang kuota ini, lihat Bandwidth keluar jaringan antar-region (Mbps) dari instance Compute dalam dokumentasi kuota dan batas VPC.
  • Batasan Cloud VPN dan Cloud Interconnect: Saat mengirim traffic dari instance ke tujuan alamat IP internal yang dapat dirutekan oleh tunnel Cloud VPN next hop atau lampiran VLAN Cloud Interconnect, bandwidth keluar dibatasi oleh:

Tujuan yang dapat dirutekan dalam jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses dari perspektif instance pengirim dengan rute yang next hop-nya bukan gateway internet default:

  • Alamat IPv4 internal regional di rentang alamat IPv4 primer subnet dan IPv4 sekunder subnet, termasuk rentang alamat IPv4 pribadi dan rentang alamat IPv4 publik yang digunakan secara pribadi, yang digunakan oleh resource tujuan berikut:
    • Alamat IPv4 internal utama dari antarmuka jaringan (vNIC) instance penerima. (Saat instance pengirim terhubung ke alamat IPv4 eksternal vNIC instance lain, paket dirutekan menggunakan gateway internet default next hop, jadi Traffic keluar ke tujuan di luar jaringan VPC berlaku.)
    • Alamat IPv4 internal dalam rentang IP alias vNIC instance penerima.
    • Alamat IPv4 internal dari aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Alamat IPv4 internal global untuk resource tujuan berikut:
  • Rentang alamat subnet IPv6 internal yang digunakan oleh resource tujuan berikut:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke vNIC instance penerima stack ganda atau khusus IPv6 (Pratinjau).
    • Alamat IPv6 dari rentang alamat IPv6 /96 dalam aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Rentang alamat subnet IPv6 eksternal yang digunakan oleh resource tujuan ini saat paket dirutekan menggunakan rute subnet atau rute subnet peering dalam jaringan VPC atau dengan rute kustom dalam jaringan VPC yang tidak menggunakan next hop gateway internet default:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke vNIC instance penerima stack ganda atau khusus IPv6 (Pratinjau).
    • Alamat IPv6 dari rentang alamat IPv6 /96 dari aturan penerusan eksternal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough eksternal.
  • Tujuan lain yang dapat diakses menggunakan rute jaringan VPC berikut:

Daftar berikut mengurutkan traffic dari instance pengirim ke tujuan internal, dari bandwidth setinggi mungkin hingga terendah:

Traffic keluar ke tujuan di luar jaringan VPC

Dari perspektif instance pengirim dan untuk alamat IP tujuan di luar jaringan VPC, Google Cloud membatasi traffic keluar ke rasio berikut yang tercapai lebih dahulu:

  • Bandwidth traffic keluar per instance: Bandwidth maksimum untuk semua koneksi dari instance komputasi ke tujuan di luar jaringan VPC adalah yang lebih kecil dari Bandwidth traffic keluar maksimum per instance dan salah satu tarif berikut:

    • 25 Gbps, jika jaringan Tier_1 diaktifkan
    • 7 Gbps, jika jaringan Tier_1 tidak diaktifkan
    • 1 Gbps untuk instance H3
    • 7 Gbps per NIC fisik untuk seri mesin yang mendukung beberapa NIC fisik, seperti A3.

    Misalnya, meskipun instance c3-standard-44 memiliki bandwidth keluar maksimum per VM sebesar 32 Gbps, bandwidth keluar per VM dari VM c3-standard-44 ke tujuan eksternal adalah 25 Gbps atau 7 Gbps, tergantung pada apakah jaringan Tier_1 diaktifkan.

  • Rasio traffic keluar maksimum per alur: Bandwidth maksimum untuk setiap koneksi 5 tuple unik, dari instance komputasi ke tujuan di luar jaringan VPC adalah 3 Gbps, kecuali pada H3, di mana adalah 1 Gbps.

  • Bandwidth keluar internet per project: Bandwidth maksimum untuk semua koneksi dari instance komputasi di setiap region project ke tujuan di luar jaringan VPC ditentukan oleh kuota bandwidth keluar internet project.

Tujuan di luar jaringan VPC mencakup semua tujuan berikut, yang masing-masing dapat diakses melalui rute dalam jaringan VPC instance pengirim yang next hop-nya adalah gateway internet default:

  • Alamat IPv4 dan IPv6 eksternal global untuk Load Balancer Jaringan proxy eksternal dan Load Balancer Aplikasi eksternal
  • Alamat IPv4 eksternal regional untuk Google Cloud resource, termasuk alamat IPv4 eksternal vNIC VM, alamat IPv4 eksternal untuk penerusan protokol eksternal, Load Balancer Jaringan passthrough eksternal, dan paket respons ke gateway Cloud NAT.
  • Alamat IPv6 eksternal regional di subnet stack ganda atau khusus IPv6 (Pratinjau) dengan rentang alamat IPv6 eksternal yang digunakan oleh alamat IPv6 eksternal instance stack ganda atau khusus IPv6 (Pratinjau), penerusan protokol eksternal, dan Load Balancer Jaringan passthrough eksternal. Subnet harus berada di jaringan VPC yang terpisah dan tidak di-peering. Rentang alamat IPv6 tujuan harus dapat diakses menggunakan rute di jaringan VPC instance pengirim yang next hop-nya adalah gateway internet default. Jika subnet stack ganda atau khusus IPv6 dengan rentang alamat IPv6 eksternal berada di jaringan VPC yang sama atau di jaringan VPC yang di-peering, lihat Traffic keluar ke tujuan yang dapat dirutekan dalam jaringan VPC.
  • Tujuan eksternal lainnya yang dapat diakses menggunakan rute statis di jaringan VPC instance pengirim asalkan next hop untuk rute tersebut adalah gateway internet default.

Untuk mengetahui detail tentang resource Google Cloud yang menggunakan jenis alamat IP eksternal, lihat Alamat IP eksternal.

Bandwidth masuk

Google Cloud menangani bandwidth masuk (ingress) bergantung pada cara paket masuk dirutekan ke instance komputasi penerima.

Traffic masuk ke tujuan yang dapat dirutekan dalam jaringan VPC

Instance penerima dapat menangani paket masuk sebanyak jenis mesin, sistem operasi, dan kondisi jaringan lainnya yang diizinkan. Google Cloud tidak menerapkan pembatasan bandwidth yang disengaja pada paket masuk yang dikirim ke instance jika paket masuk dikirimkan menggunakan rute dalam jaringan VPC:

  • Rute subnet di jaringan VPC instance penerima
  • Rute subnet peering di jaringan VPC yang di-peering
  • Rute di jaringan lain yang next hop-nya adalah tunnel Cloud VPN, lampiran Cloud Interconnect (VLAN), atau instance peralatan Router yang terletak di jaringan VPC instance penerima

Tujuan untuk paket yang dirutekan dalam jaringan VPC meliputi:

  • Alamat IPv4 internal utama dari antarmuka jaringan (NIC) instance penerima. Alamat IPv4 internal utama adalah alamat IPv4 internal regional yang berasal dari rentang alamat IPv4 utama subnet.
  • Alamat IPv4 internal dari rentang IP alias NIC instance penerima. Rentang IP alias dapat berasal dari rentang alamat IPv4 utama subnet atau salah satu rentang alamat IPv4 sekundernya.
  • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke NIC instance penerima stack ganda atau khusus IPv6 (Pratinjau). Rentang IPv6 instance Compute dapat berasal dari rentang IPv6 subnet berikut:
  • Alamat IPv4 internal dari aturan penerusan yang digunakan oleh penerusan protokol internal ke instance penerima atau Load Balancer Jaringan passthrough internal, di mana instance penerima merupakan backend load balancer. Alamat IPv4 aturan penerusan internal berasal dari rentang alamat IPv4 utama subnet.
  • Alamat IPv6 internal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol internal ke instance penerima atau Load Balancer Jaringan passthrough internal, dengan instance penerima adalah backend dari load balancer. Alamat IPv6 aturan penerusan internal berasal dari rentang alamat IPv6 internal subnet.
  • Alamat IPv6 eksternal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke instance penerima atau Load Balancer Jaringan passthrough eksternal. Instance penerima adalah backend load balancer saat paket masuk dirutekan dalam jaringan VPC menggunakan salah satu rute yang tercantum sebelumnya di bagian ini. Alamat IPv6 aturan penerusan eksternal berasal dari rentang alamat IPv6 eksternal subnet.
  • Alamat IP dalam rentang tujuan rute statis kustom yang menggunakan instance penerima sebagai instance next hop (next-hop-instance atau next-hop-address).
  • Alamat IP dalam rentang tujuan rute statis kustom menggunakan next hop Load Balancer Jaringan passthrough internal (next-hop-ilb), jika instance penerima adalah backend untuk load balancer tersebut.

Traffic masuk ke tujuan di luar jaringan VPC

Google Cloud menerapkan batas bandwidth berikut untuk paket masuk yang dikirim ke instance penerima menggunakan rute di luar jaringan VPC. Jika load balancing terlibat, batas bandwidth diterapkan satu per satu ke setiap instance penerima.

Untuk seri mesin yang tidak mendukung beberapa NIC fisik, pembatasan bandwidth masuk yang berlaku diterapkan secara kolektif ke semua antarmuka jaringan virtual (vNIC). Batasnya adalah tarif pertama dari tarif berikut yang ditemukan:

  • 1.800.000 paket per detik
  • 30 Gbps

Untuk seri mesin yang mendukung beberapa NIC fisik, seperti A3, pembatasan bandwidth masuk yang berlaku diterapkan satu per satu ke setiap NIC fisik. Batasnya adalah tarif pertama dari tarif berikut yang ditemukan:

  • 1.800.000 paket per detik per NIC fisik
  • 30 Gbps per NIC fisik

Tujuan untuk paket yang dirutekan menggunakan rute di luar jaringan VPC meliputi:

  • Alamat IPv4 eksternal yang ditetapkan dalam konfigurasi akses NAT one-to-one pada salah satu antarmuka jaringan (NIC) instance penerima.
  • Alamat IPv6 eksternal dari rentang alamat IPv6 /96 yang ditetapkan ke vNIC instance penerima stack ganda atau khusus IPv6 (Pratinjau) saat paket masuk dirutekan menggunakan rute di luar jaringan VPC instance penerima.
  • Alamat IPv4 eksternal dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke instance penerima atau Load Balancer Jaringan passthrough eksternal, tempat instance penerima merupakan backend load balancer.
  • Alamat IPv6 eksternal dari rentang IPv6 /96 dari aturan penerusan yang digunakan oleh penerusan protokol eksternal ke instance penerima atau Load Balancer Jaringan passthrough eksternal. Instance penerima harus berupa backend load balancer saat paket masuk dirutekan menggunakan rute di luar jaringan VPC.
  • Respons masuk yang ditetapkan yang diproses oleh Cloud NAT.

Menggunakan frame jumbo untuk memaksimalkan bandwidth jaringan

Untuk menerima dan mengirim frame jumbo, konfigurasi jaringan VPC yang digunakan oleh instance komputasi Anda; tetapkan unit transmisi maksimum (MTU) ke nilai yang lebih besar, hingga 8896.

Nilai MTU yang lebih tinggi akan menambah ukuran paket dan mengurangi overhead header paket, sehingga meningkatkan throughput data payload.

Anda dapat menggunakan bingkai jumbo dengan driver gVNIC versi 1.3 atau yang lebih baru di instance VM, atau dengan driver IDPF di instance bare metal. Tidak semua image publik Google Cloud menyertakan driver ini. Untuk mengetahui informasi selengkapnya tentang dukungan sistem operasi untuk bingkai jumbo, lihat tab Networking features di halaman Operating system details.

Jika menggunakan OS image yang tidak memiliki dukungan penuh untuk bingkai jumbo, Anda dapat menginstal driver gVNIC versi v1.3.0 atau yang lebih baru secara manual. Google menyarankan penginstalan versi driver gVNIC yang ditandai Latest untuk mendapatkan manfaat dari fitur tambahan dan perbaikan bug. Anda dapat mendownload driver gVNIC dari GitHub.

Untuk mengupdate versi driver gVNIC secara manual di OS tamu, lihat Penggunaan pada sistem operasi yang tidak didukung.

Frame jumbo dan mesin GPU

Untuk jenis mesin GPU, gunakan setelan MTU yang direkomendasikan untuk frame Jumbo. Untuk mengetahui informasi selengkapnya, lihat Setelan MTU yang direkomendasikan untuk Frame jumbo.

Menerima dan mengirim antrean

Setiap NIC atau vNIC untuk instance komputasi diberi sejumlah antrean terima dan kirim untuk memproses paket dari jaringan.

  • Receive Queue (RX): Antrean untuk menerima paket. Saat NIC menerima paket dari jaringan, NIC memilih deskripsi untuk paket masuk dari antrean, memprosesnya, dan menyerahkan paket tersebut ke OS tamu melalui antrean paket yang terpasang ke core vCPU menggunakan interupsi. Jika antrean RX penuh dan tidak ada buffer yang tersedia untuk menempatkan paket, paket akan dihapus. Hal ini biasanya dapat terjadi jika aplikasi terlalu menggunakan core vCPU yang juga terpasang ke antrean paket yang dipilih.
  • Transmit Queue (TX): Antrean untuk mengirimkan paket. Saat OS tamu mengirim paket, deskriptor dialokasikan dan ditempatkan dalam antrean TX. NIC kemudian memproses deskripsi dan mengirimkan paket.

Alokasi antrean default

Kecuali jika Anda secara eksplisit menetapkan jumlah antrean untuk NIC, Anda dapat membuat model algoritma yang digunakan Google Cloud untuk menetapkan jumlah antrean RX dan TX tetap per NIC dengan cara berikut:

Instance bare metal
Untuk instance bare metal, hanya ada satu NIC, sehingga jumlah antrean maksimum adalah 16.
Instance VM yang menggunakan antarmuka jaringan gVNIC

Untuk instance C4, guna meningkatkan performa, konfigurasi berikut menggunakan jumlah antrean tetap:

  • Untuk instance Linux dengan 2 vCPU, jumlah antrean adalah 1.
  • Untuk instance Linux dengan 4 vCPU, jumlah antrean adalah 2.

Untuk seri mesin lainnya, jumlah antrean bergantung pada apakah seri mesin menggunakan Titanium atau tidak.

  • Untuk instance generasi ketiga (kecuali M3) dan yang lebih baru yang menggunakan Titanium:

    Bagi jumlah vCPU dengan jumlah vNIC (num_vcpus/num_vnics) dan hapus sisanya.

  • Untuk VM generasi pertama dan kedua yang tidak menggunakan Titanium:

    Bagi jumlah vCPU dengan jumlah vNIC, lalu bagi hasilnya dengan 2 (num_vcpus/num_vnics/2). Hapus sisanya.

Untuk menyelesaikan penghitungan jumlah antrean default:

  1. Jika angka yang dihitung kurang dari 1, tetapkan satu antrean untuk setiap vNIC.

  2. Menentukan apakah jumlah yang dihitung lebih besar dari jumlah maksimum antrean per vNIC, yaitu 16. Jika angka yang dihitung lebih besar dari 16, abaikan angka yang dihitung, dan tetapkan setiap antrean vNIC 16.

Instance VM yang menggunakan antarmuka jaringan VirtIO atau driver kustom

Bagi jumlah vCPU dengan jumlah vNIC, dan hapus sisanya —[number of vCPUs/number of vNICs].

  1. Jika angka yang dihitung kurang dari 1, tetapkan satu antrean untuk setiap vNIC.

  2. Menentukan apakah jumlah yang dihitung lebih besar dari jumlah maksimum antrean per vNIC, yaitu 32. Jika jumlah yang dihitung lebih besar dari 32, abaikan jumlah yang dihitung, dan tetapkan setiap vNIC 32 antrean.

Contoh

Contoh berikut menunjukkan cara menghitung jumlah default antrean untuk instance VM:

  • Jika instance VM menggunakan VirtIO dan memiliki 16 vCPU dan 4 vNIC, jumlah yang dihitung adalah [16/4] = 4. Google Cloud menetapkan empat antrean untuk setiap vNIC.

  • Jika instance VM menggunakan gVNIC dan memiliki 128 vCPU dan dua vNIC, jumlah yang dihitung adalah [128/2/2] = 32. Google Cloud menetapkan jumlah maksimum antrean per vNIC yang memungkinkan untuk setiap vNIC. Google Cloudmenetapkan 16 antrean per vNIC.

Pada sistem Linux, Anda dapat menggunakan ethtool untuk mengonfigurasi vNIC dengan antrean yang lebih sedikit daripada jumlah antrean yang ditetapkan Google Cloud per vNIC.

Jumlah antrean saat menggunakan Dynamic Network Interface

Jika Anda menggunakan Dynamic Network Interface dengan antarmuka jaringan, jumlah antrean tidak akan berubah. NIC Dinamis tidak memiliki antrean penerimaan dan pengiriman sendiri; NIC ini menggunakan antrean yang sama dengan vNIC induk.

Alokasi antrean kustom untuk instance VM

Alih-alih menggunakan alokasi antrean default, Anda dapat menetapkan jumlah antrean kustom (total RX dan TX) ke setiap vNIC saat membuat instance komputasi baru dengan menggunakan Compute Engine API.

Jumlah antrean kustom yang Anda tentukan harus mematuhi aturan berikut:

  • Jumlah antrean minimum yang dapat Anda tetapkan per vNIC adalah satu.

  • Jumlah antrean maksimum yang dapat Anda tetapkan ke setiap vNIC instance VM adalah jumlah yang lebih rendah dari jumlah vCPU atau jumlah antrean maksimum per vNIC, berdasarkan jenis driver:

    • Menggunakan virtIO atau driver kustom, jumlah antrean maksimum adalah 32.
    • Dengan menggunakan gVNIC, jumlah antrean maksimum adalah 16, kecuali untuk berikut ini, yang jumlah antrean maksimumnya adalah 32:
      • Instance A2 atau G2
      • Instance TPU
      • Instance C2, C2D, N2, atau N2D dengan jaringan Tier_1 diaktifkan
    • Untuk konfigurasi Confidential VM berikut, jumlah antrean maksimum adalah 8:

      • AMD SEV pada jenis mesin C2D dan N2D
      • AMD SEV-SNP pada jenis mesin N2D
  • Jika Anda menetapkan jumlah antrean kustom ke semua NIC instance komputasi, jumlah penetapan jumlah antrean harus kurang dari atau sama dengan jumlah vCPU yang ditetapkan ke instance.

Anda dapat melakukan oversubscribe pada jumlah antrean kustom untuk vNIC. Dengan kata lain, Anda dapat memiliki jumlah total jumlah antrean yang ditetapkan ke semua NIC untuk instance VM yang lebih besar daripada jumlah vCPU untuk instance Anda. Untuk melakukan oversubscribe pada jumlah antrean kustom, instance VM harus memenuhi kondisi berikut:

  • Gunakan gVNIC sebagai jenis vNIC untuk semua NIC yang dikonfigurasi untuk instance.
  • Menggunakan jenis mesin yang mendukung jaringan Tier_1.
  • Mengaktifkan jaringan Tier_1.
  • Menentukan jumlah antrean kustom untuk semua NIC yang dikonfigurasi untuk instance.

Dengan oversubscription antrean, jumlah antrean maksimum untuk instance VM adalah 16 kali jumlah NIC. Jadi, jika Anda telah mengonfigurasi 6 NIC untuk instance dengan 30 vCPU, Anda dapat mengonfigurasi maksimum (16 * 6), atau 96 antrean kustom untuk instance Anda.

Contoh

  • Jika instance VM memiliki 8 vCPU dan 3 vNIC, jumlah antrean maksimum untuk instance adalah jumlah vCPU, atau 8. Anda dapat menetapkan 1 antrean ke nic0, 4 antrean ke nic1, dan 3 antrean ke nic2. Dalam contoh ini, Anda selanjutnya tidak dapat menetapkan 4 antrean ke nic2 sambil menyimpan dua penetapan antrean vNIC lainnya karena jumlah antrean yang ditetapkan tidak boleh melebihi jumlah vCPU.

  • Jika Anda memiliki VM N2 dengan 96 vCPU dan 2 vNIC, Anda dapat menetapkan kedua vNIC hingga 32 antrean masing-masing saat menggunakan driver virtIO, atau hingga 16 antrean masing-masing saat menggunakan driver gVNIC. Jika mengaktifkan jaringan Tier_1 untuk VM N2, Anda dapat menetapkan hingga 32 antrean ke setiap vNIC. Dalam contoh ini, jumlah antrean yang ditetapkan selalu kurang dari atau sama dengan jumlah vCPU.

Anda juga dapat menetapkan jumlah antrean kustom untuk hanya beberapa NIC, sehingga Google Cloud dapat menetapkan antrean ke NIC yang tersisa. Jumlah antrean yang dapat Anda tetapkan per vNIC masih tunduk pada aturan yang disebutkan sebelumnya. Anda dapat membuat model kelayakan konfigurasi, dan, jika konfigurasi tersebut memungkinkan, jumlah antrean yang ditetapkan ke vNIC yang tersisa dengan proses ini: Google Cloud

  1. Hitung jumlah antrean untuk vNIC menggunakan penetapan antrean kustom. Untuk contoh VM dengan 20 vCPU dan 6 vNIC, misalnya Anda menetapkan nic0 5 antrean, nic1 6 antrean, nic2 4 antrean, dan membiarkan Google Cloudmenetapkan antrean untuk nic3, nic4, dan nic5. Dalam contoh ini, jumlah antrean yang ditetapkan secara kustom adalah 5+6+4 = 15.

  2. Kurangi jumlah antrean yang ditetapkan secara kustom dengan jumlah vCPU. Jika selisihnya kurang dari jumlah vNIC yang tersisa yang harus ditetapkan antreannya olehGoogle Cloud , Google Cloud akan menampilkan error karena setiap vNIC harus memiliki minimal satu antrean.

    Melanjutkan contoh dengan VM yang memiliki 20 vCPU dan jumlah 15 antrean yang ditetapkan secara kustom, Google Cloud memiliki 20-15 = 5 antrean tersisa untuk ditetapkan ke vNIC yang tersisa (nic3, nic4, nic5).

  3. Bagi selisih dari langkah sebelumnya dengan jumlah vNIC yang tersisa dan buang sisa —⌊(number of vCPUs - sum of assigned queues)/(number of remaining vNICs)⌋. Penghitungan ini selalu menghasilkan bilangan bulat (bukan pecahan) yang setidaknya sama dengan satu, karena batasan yang dijelaskan di langkah sebelumnya. Google Cloud menetapkan jumlah antrean setiap vNIC yang tersisa yang cocok dengan jumlah yang dihitung selama jumlah yang dihitung tidak lebih besar dari jumlah maksimum antrean per vNIC. Jumlah maksimum antrean per vNIC bergantung pada jenis driver:

  • Dengan menggunakan virtIO atau driver kustom, jika jumlah antrean yang dihitung untuk setiap vNIC yang tersisa lebih dari 32, Google Cloud akan menetapkan setiap antrean 32 vNIC yang tersisa.
  • Dengan gVNIC, jika jumlah antrean yang dihitung untuk setiap vNIC yang tersisa lebih besar dari batas 16 atau 32 (bergantung pada konfigurasi VM), Google Cloud akan menetapkan 16 antrean untuk setiap vNIC yang tersisa.

Mengonfigurasi jumlah antrean kustom

Untuk membuat instance komputasi yang menggunakan jumlah antrean kustom untuk satu atau beberapa NIC atau vNIC, selesaikan langkah-langkah berikut.

Dalam contoh kode berikut, VM dibuat dengan jenis antarmuka jaringan yang ditetapkan ke GVNIC dan performa jaringan per VM Tier_1 diaktifkan. Anda dapat menggunakan contoh kode ini untuk menentukan jumlah antrean maksimum dan oversubscription antrean yang tersedia untuk jenis mesin yang didukung.

gcloud

  1. Jika Anda belum memiliki jaringan VPC dengan subnet untuk setiap antarmuka vNIC yang ingin Anda konfigurasi, buat jaringan VPC dan subnet tersebut.
  2. Gunakan perintah gcloud compute instances create untuk membuat instance komputasi. Ulangi flag --network-interface untuk setiap vNIC yang ingin Anda konfigurasi untuk instance, dan sertakan opsi queue-count.
    gcloud compute instances create INSTANCE_NAME \
        --zone=ZONE \
        --machine-type=MACHINE_TYPE \
        --network-performance-configs=total-egress-bandwidth-tier=TIER_1  \
        --network-interface=network=NETWORK_NAME_1,subnet=SUBNET_1,nic-type=GVNIC,queue-count=QUEUE_SIZE_1 \
        --network-interface=network=NETWORK_NAME_2,subnet=SUBNET_2,nic-type=GVNIC,queue-count=QUEUE_SIZE_2

Ganti kode berikut:

  • INSTANCE_NAME: nama untuk instance komputasi baru
  • ZONE: zona tempat instance akan dibuat
  • MACHINE_TYPE: jenis mesin instance. Untuk melakukan oversubscribe jumlah antrean, jenis mesin yang Anda tentukan harus mendukung gVNIC dan jaringan Tier_1.
  • NETWORK_NAME: nama jaringan yang dibuat sebelumnya
  • SUBNET_*: nama salah satu subnet yang dibuat sebelumnya
  • QUEUE_SIZE: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas di Alokasi antrean kustom.

Terraform

  1. Jika Anda belum memiliki jaringan VPC dengan subnet untuk setiap antarmuka vNIC yang ingin Anda konfigurasi, buat jaringan VPC dan subnet tersebut.
  2. Buat instance komputasi dengan jumlah antrean spesifik untuk vNIC menggunakan resource google_compute_instance. Ulangi parameter --network-interface untuk setiap vNIC yang ingin Anda konfigurasi untuk instance komputasi, dan sertakan parameter queue-count.

    # Queue oversubscription instance
    resource "google_compute_instance" "VM_NAME" {
    project      = "PROJECT_ID"
    boot_disk {
      auto_delete = true
      device_name = "DEVICE_NAME"
      initialize_params {
         image="IMAGE_NAME"
         size = DISK_SIZE
         type = "DISK_TYPE"
      }
    }
    machine_type = "MACHINE_TYPE"
    name         = "VM_NAME"
    zone = "ZONE"
    
    network_performance_config {
        total_egress_bandwidth_tier = "TIER_1"
    }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_1
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_1"
     }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_2
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_2"
    }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_3
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_3""
    }
    
    network_interface {
        nic_type = "GVNIC"
        queue_count = QUEUE_COUNT_4
        subnetwork_project = "PROJECT_ID"
        subnetwork = "SUBNET_4""
    }
    
    }
    
    

Ganti kode berikut:

  • VM_NAME: nama untuk instance komputasi baru
  • PROJECT_ID: ID project tempat instance akan dibuat. Kecuali jika Anda menggunakan jaringan VPC Bersama, project yang Anda tentukan harus sama dengan project tempat semua subnet dan jaringan dibuat.
  • DEVICE_NAME: Nama yang akan dikaitkan dengan boot disk di OS tamu
  • IMAGE_NAME: nama image,misalnya, "projects/debian-cloud/global/images/debian-11-bullseye-v20231010".
  • DISK_SIZE: ukuran boot disk, dalam GiB
  • DISK_TYPE: jenis disk yang akan digunakan untuk boot disk, misalnya, pd-standard
  • MACHINE_TYPE: jenis mesin instance. Untuk melakukan oversubscribe jumlah antrean, jenis mesin yang Anda tentukan harus mendukung gVNIC dan jaringan Tier_1.
  • ZONE: zona tempat instance akan dibuat
  • QUEUE_COUNT: jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas di Alokasi antrean kustom.
  • SUBNET_*: nama subnet yang terhubung ke antarmuka jaringan

REST

  1. Jika Anda belum memiliki jaringan VPC dengan subnet untuk setiap antarmuka vNIC yang ingin Anda konfigurasi, buat jaringan VPC dan subnet tersebut.
  2. Buat instance komputasi dengan jumlah antrean spesifik untuk NIC menggunakan metode instances.insert. Ulangi properti networkInterfaces untuk mengonfigurasi beberapa antarmuka jaringan.

    POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances
    {
    "name": "VM_NAME",
    "machineType": "machineTypes/MACHINE_TYPE",
    "networkPerformanceConfig": {
        "totalEgressBandwidthTier": TIER_1
    },
    "networkInterfaces": [
        {
          "nicType": gVNIC,
          "subnetwork":"regions/region/subnetworks/SUBNET_1",
          "queueCount": "QUEUE_COUNT_1"
        } ],
    "networkInterfaces": [
        {
          "nicType": gVNIC,
          "subnetwork":"regions/region/subnetworks/SUBNET_2",
          "queueCount": "QUEUE_COUNT_2"
        } ],
    }
    

    Ganti kode berikut:

    • PROJECT_ID: ID project tempat instance komputasi akan dibuat
    • ZONE: zona tempat pembuatan instance komputasi
    • VM_NAME: nama instance komputasi baru
    • MACHINE_TYPE: jenis mesin, bawaan atau kustom, untuk instance komputasi baru. Untuk melakukan oversubscribe jumlah antrean, jenis mesin harus mendukung gVNIC dan jaringan Tier_1.
    • SUBNET_*: nama subnet yang terhubung ke antarmuka jaringan
    • QUEUE_COUNT: Jumlah antrean untuk vNIC, tunduk pada aturan yang dibahas di Alokasi antrean kustom.

Mengantrekan alokasi dan mengubah jenis mesin

Instance komputasi dibuat dengan alokasi antrean default, atau Anda dapat menetapkan jumlah antrean kustom untuk setiap kartu antarmuka jaringan virtual (vNIC) saat membuat instance komputasi baru menggunakan Compute Engine API. Penetapan antrean vNIC default atau kustom hanya ditetapkan saat membuat instance komputasi. Jika instance Anda memiliki vNIC yang menggunakan jumlah antrean default, Anda dapat mengubah jenis mesinnya. Jika jenis mesin yang Anda ganti memiliki jumlah vCPU yang berbeda, jumlah antrean default untuk instance Anda akan dihitung ulang berdasarkan jenis mesin baru.

Jika VM Anda memiliki vNIC yang menggunakan jumlah antrean non-default kustom, Anda dapat mengubah jenis mesin menggunakan Google Cloud CLI atau Compute Engine API untuk mengupdate properti instance. Konversi berhasil jika VM yang dihasilkan mendukung jumlah antrean yang sama per vNIC dengan instance asli. Untuk VM yang menggunakan antarmuka VirtIO-Net dan memiliki jumlah antrean kustom lebih dari 16 per vNIC, Anda tidak dapat mengubah jenis mesin menjadi jenis mesin generasi ketiga atau yang lebih baru, karena jenis mesin tersebut hanya menggunakan gVNIC. Sebagai gantinya, Anda dapat memigrasikan VM ke jenis mesin generasi ketiga atau yang lebih baru dengan mengikuti petunjuk di Memindahkan workload ke instance komputasi baru.

Langkah berikutnya