Unit transmisi maksimum

Unit transmisi maksimum (MTU) adalah ukuran paket IP terbesar yang mungkin dalam byte, termasuk header IP, header protokol lapisan 4, dan data lapisan 4, yang dapat muat di dalam frame Ethernet.

Ukuran MTU jaringan VPC yang valid

Jaringan Virtual Private Cloud (VPC) menggunakan MTU default sebesar 1.460 byte. Anda dapat menyetel MTU jaringan VPC ke nilai apa pun antara 1.300 byte dan 8.896 byte (inklusif). Ukuran MTU kustom yang umum adalah 1.500 byte (Ethernet standar) atau 8.896 byte (maksimum yang mungkin). Sebaiknya konfigurasi MTU untuk setiap antarmuka jaringan (NIC) instance virtual machine (VM) agar cocok dengan MTU jaringan VPC yang terhubung dengannya. Untuk mengetahui informasi selengkapnya, lihat Setelan VM dan MTU.

Komunikasi antara Google Cloud VM dalam jaringan VPC

Saat VM pengirim dan penerima menggunakan jaringan VPC yang sama atau jaringan VPC yang di-peering yang memiliki MTU yang identik, paket IP hingga ukuran MTU dapat dikirim di antara kedua VM, jika antarmuka untuk kedua VM dikonfigurasi untuk menggunakan MTU jaringan VPC.

Untuk menghindari masalah ketidakcocokan MTU, sebaiknya gunakan MTU yang sama untuk semua jaringan VPC yang terhubung. Meskipun hal tersebut adalah praktik yang direkomendasikan, Anda tidak harus memiliki MTU yang identik di antara jaringan VPC yang terhubung. Untuk mengetahui detail tentang cara protokol menangani situasi ketika terjadi ketidakcocokan MTU antara jaringan VPC, lihat MTU yang tidak cocok, penjepitan MSS, penemuan MTU jalur.

Dari perspektif VM pengirim, jalur ke tujuan berikut merepresentasikan traffic VM-ke-VM yang dirutekan dalam jaringan VPC:

  • Alamat IPv4 internal regional di rentang alamat IPv4 sekunder subnet atau IPv4 primer subnet, termasuk rentang alamat IPv4 pribadi dan rentang alamat IPv4 publik yang digunakan secara pribadi, yang digunakan oleh resource tujuan berikut:
    • Alamat IPv4 internal utama dari antarmuka jaringan (NIC) VM penerima .
    • Alamat IPv4 internal dalam rentang IP alias dari NIC VM penerima.
    • Alamat IPv4 internal dari aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Rentang alamat subnet IPv6 internal yang digunakan oleh resource tujuan berikut:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke NIC VM penerima.
    • Alamat IPv6 dari rentang alamat IPv6 /96 dalam aturan penerusan internal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough internal.
  • Rentang alamat subnet IPv6 eksternal yang digunakan oleh resource tujuan ini saat paket dirutekan menggunakan rute subnet atau rute subnet peering dalam jaringan VPC:
    • Alamat IPv6 dari rentang alamat IPv6 /96 yang ditetapkan ke NIC VM penerima.
    • Alamat IPv6 dari rentang alamat IPv6 /96 dari aturan penerusan eksternal untuk penerusan protokol atau untuk Load Balancer Jaringan passthrough eksternal.

Jalur VM-ke-VM berikut diperlakukan dengan cara yang sama seperti Komunikasi ke tujuan di luar jaringan VPC:

  • Jika tujuan paket adalah alamat IPv4 eksternal dari NIC Google Cloud VM penerima.
  • Jika tujuan paket adalah alamat IPv4 eksternal dari Load Balancer Jaringan passthrough eksternal.
  • Jika tujuan paket adalah alamat IPv4 eksternal aturan penerusan untuk penerusan protokol
  • Jika tujuan paket adalah alamat IPv6 eksternal NIC VM Google Cloud, Load Balancer Jaringan passthrough eksternal, atau aturan penerusan untuk penerusan protokol eksternal dan rute yang berlaku di jaringan VPC menggunakan next hop gateway internet default. Dalam skenario ini, VM penerima tidak berada di jaringan VPC yang sama dengan VM pengirim, atau di jaringan VPC yang terhubung ke jaringan VPC VM pengirim menggunakan Peering Jaringan VPC.

Komunikasi ke tujuan di luar jaringan VPC

Google Cloud memproses paket yang dikirim ke tujuan di luar jaringan VPC VM pengirim seperti yang ditunjukkan dalam tabel berikut. Tujuan di luar jaringan VPC VM pengirim mencakup alamat IP yang dapat dirutekan secara publik untuk resource di luar Google Cloud dan alamat IP eksternal yang dapat digunakan pelanggan dalam Google Cloud.

Google Cloud

Karena internet umumnya menggunakan MTU 1.500 byte, menjaga ukuran paket IP pada 1.500 byte atau kurang biasanya menghindari kehilangan paket terkait MTU.

Situasi Perilaku
Paket TCP SYN dan SYN-ACK Google Cloud melakukan clamping MSS jika perlu, mengubah MSS untuk memastikan paket sesuai dengan MTU.
MTU paket IP antara 1.300 byte dan 1.600 byte (inklusif) Google Cloud tidak membuat perubahan pada paket, kecuali untuk paket SYN dan SYN-ACK seperti yang dibahas di baris pertama.
Paket IP lebih besar dari 1.600 byte Google Cloud menghapus paket dan mengirim pesan Fragmentasi Diperlukan (ICMP melalui IPv4) atau Paket Terlalu Besar (ICMPv6) saat bit DF aktif dan juga saat bit DF nonaktif.

Komunikasi ke Google API dan layanan Google

VM yang menggunakan ukuran MTU jaringan VPC yang valid dapat mengirim paket ke Google API dan layanan Google, termasuk menggunakan Akses Google Pribadi dan Private Service Connect untuk Google API. Detail di bagian ini juga berlaku untuk resource lokal yang mengirim paket ke API dan layanan Google menggunakan Akses Google Pribadi untuk host lokal.

Jalur traffic ke Google API dan layanan Google yang dijelaskan di bagian ini diterapkan oleh Google Front End (GFE). GFE ini menggunakan MTU tetap yang tidak dapat dikonfigurasi. Traffic dari Google Cloud ke Google API dan layanan Google selalu menggunakan protokol TCP: Jika VM terhubung ke Google API dan layanan Google dari jaringan VPC yang MTU-nya tidak cocok dengan MTU GFE, ukuran segmen dinegosiasikan menggunakan iklan MSS TCP seperti yang dijelaskan dalam MTU yang tidak cocok, pembatasan MSS, penemuan MTU jalur.

Sumber paket Tujuan paket

Alamat IPv4 internal apa pun: alamat IPv4 internal utama atau alamat IPv4 internal dari rentang IP alias NIC VM

Alamat IPv4 eksternal yang ditetapkan ke NIC VM menggunakan konfigurasi akses NAT 1-1: Dalam situasi ini, Google Cloud melakukan NAT 1-1 pada traffic keluar, mengonversi alamat IPv4 internal utama sumber asli menjadi alamat IPv4 eksternal sumber yang ditentukan dalam konfigurasi akses.

  • Alamat IPv4 Google API dan layanan Google untuk domain default
  • 199.36.153.4/30 (restricted.googleapis.com)
  • 199.36.153.8/30 (private.googleapis.com)
  • Endpoint Private Service Connect untuk Google API dan layanan Google
Alamat IPv6 eksternal atau internal, untuk VM stack ganda atau khusus IPv6 (Pratinjau)
  • Alamat IPv6 Google API dan layanan Google untuk domain default
  • 2600:2d00:0002:1000::/64 (restricted.googleapis.com)
  • 2600:2d00:0002:2000::/64 (private.googleapis.com)

Komunikasi melalui tunnel Cloud VPN

Cloud VPN memiliki MTU gateway untuk paket yang dienkapsulasi dan MTU payload untuk paket sebelum dan setelah enkapsulasi.

Untuk mengetahui nilai MTU payload yang tepat dan informasi MTU Cloud VPN lainnya, lihat Pertimbangan MTU dalam dokumentasi Cloud VPN.

Komunikasi melalui lampiran Cloud Interconnect (VLAN)

Sebaiknya gunakan MTU yang sama untuk semua lampiran VLAN yang terhubung ke jaringan VPC yang sama, dan tetapkan MTU jaringan VPC ke nilai yang sama. Untuk mengetahui detail tentang MTU lampiran VLAN Cloud Interconnect, lihat MTU Cloud Interconnect.

Dukungan frame jumbo

Tabel berikut merangkum dukungan frame jumbo di antara produk dan fitur: Google Cloud

Produk atau fitur Dukungan frame jumbo
Compute Engine Ya
Cloud Interconnect Ya
Cloud VPN Tidak
Google API Tidak

Setelan VM dan MTU

Sebagai praktik terbaik, cocokkan MTU NIC VM dengan MTU jaringan VPC yang terhubung dengan NIC:

  • Setiap MTU NIC untuk VM Linux berdasarkan image OS publik secara otomatis ditetapkan ke MTU jaringan VPC masing-masing dengan menggunakan Opsi DHCP 26.

  • Setiap MTU NIC untuk VM Windows berdasarkan image OS publik dikonfigurasi dengan MTU tetap sebesar 1,460 byte. Jika Anda mengubah MTU jaringan VPC yang berisi VM Windows berdasarkan OS image publik, Anda harus mengubah setelan MTU VM Windows.

  • Jika Anda menggunakan image OS tamu kustom, Anda harus mengonfigurasi MTU NIC atau memverifikasi bahwa OS tamu menerima MTU jaringan VPC dengan menggunakan Opsi DHCP 26.

  • Jika VM memiliki beberapa antarmuka jaringan, tetapkan MTU setiap NIC ke MTU jaringan VPC masing-masing.

  • Jika MTU NIC harus berbeda dari MTU jaringan VPC, tetapkan MTU NIC ke nilai yang lebih kecil dari MTU jaringan VPC. Menurunkan MTU NIC secara paksa bermanfaat untuk beberapa skenario jaringan lanjutan.

Mengubah MTU jaringan VPC

Jika Anda mengubah MTU jaringan VPC dengan VM yang sedang berjalan, perhatikan pertimbangan berikut:

  • Jika Anda mengurangi MTU jaringan VPC, Anda harus menghentikan dan memulai setiap VM. Memulai ulang VM dari dalam sistem operasi tamu tidak akan memperbarui MTU-nya.

  • Jika Anda meningkatkan MTU jaringan VPC, VM yang berjalan menggunakan jaringan VPC tidak akan memanfaatkan MTU jaringan VPC yang ditingkatkan hingga VM dihentikan dan dimulai. Hingga setiap VM dihentikan dan dimulai ulang, VM akan terus menggunakan nilai MTU sebelumnya (lebih rendah).

Untuk mengetahui petunjuknya, lihat Mengubah setelan MTU jaringan VPC.

Setelan GKE dan MTU

MTU yang dipilih untuk antarmuka Pod bergantung pada Antarmuka Jaringan Container (Container Network Interface/CNI) yang digunakan oleh Node cluster dan setelan MTU VPC yang mendasarinya. Untuk mengetahui informasi selengkapnya, lihat Pod.

Nilai MTU antarmuka Pod adalah 1460 atau diwarisi dari antarmuka utama Node.

CNI MTU GKE Standard
kubenet 1460 Default
kubenet
(GKE versi 1.26.1 dan yang lebih baru)
Diwarisi Default
Calico 1460

Diaktifkan menggunakan --enable-network-policy.

Untuk mengetahui detailnya, silakan melihat Mengontrol komunikasi antara Pod dan Layanan menggunakan kebijakan jaringan.

netd Diwarisi Diaktifkan menggunakan salah satu opsi berikut:
GKE Dataplane V2 Diwarisi

Diaktifkan menggunakan --enable-dataplane-v2.

Untuk mengetahui detailnya, silakan melihat Menggunakan GKE Dataplane V2.

MTU yang tidak cocok, pembatasan MSS, penemuan MTU jalur

Bagian ini menjelaskan cara TCP dan protokol non-TCP menangani MTU yang tidak cocok.

Protokol TCP

Protokol TCP menangani ketidakcocokan MTU secara otomatis. Klien dan server masing-masing menghitung nilai ukuran segmen maksimum (MSS) TCP efektifnya sendiri setiap kali koneksi TCP dibuka. Klien dan server tidak harus menyetujui nilai MSS efektif yang identik.

  • Ukuran segmen maksimum (MSS) TCP efektif klien: Jumlah data yang dapat ditransmisikan terbesar dalam segmen TCP yang dikirim dari klien ke server adalah minimum dari dua nilai berikut:

    • Nilai kolom MSS dalam paket SYN-ACK yang diterima oleh klien dari server selama pembentukan koneksi TCP.

    • MTU antarmuka jaringan klien, dikurangi 40 byte. 40 byte yang dikurangi mencakup 20 byte untuk header IP dan 20 byte untuk header TCP dasar.

  • Ukuran segmen maksimum (MSS) TCP efektif server: Jumlah data yang dapat dikirim terbesar dalam segmen TCP yang dikirim dari server ke klien adalah minimum dari dua nilai berikut:

    • Nilai kolom MSS dalam paket SYN yang diterima oleh server dari klien selama pembentukan koneksi TCP.

    • MTU antarmuka jaringan server, dikurangi 40 byte. 40 byte yang dikurangi mencakup 20 byte untuk header IP dan 20 byte untuk header TCP dasar.

TCP MSS clamping

Penetapan MSS TCP adalah proses saat perangkat jaringan antara klien dan server mengubah nilai MSS dalam paket SYN dan SYN-ACK saat merutekan paket antara klien dan server. Google Cloud menggunakan penetapan MSS setiap kali mengirim paket ke tujuan di luar jaringan VPC.

Tunnel Cloud VPN dan lampiran VLAN Cloud Interconnect juga menggunakan penjepitan MSS. Untuk mengetahui informasi selengkapnya, lihat Enkapsulasi dan pemrosesan paket dalam dokumentasi Cloud VPN dan MTU Cloud Interconnect.

Jaringan VPC tidak melakukan penjepitan MSS untuk paket yang dirutekan oleh next hop dalam jaringan VPC karena protokol TCP itu sendiri sudah mencukupi.

Protokol non-TCP

Protokol lain, seperti UDP, memerlukan penanganan khusus jika dua MTU jaringan VPC yang berbeda terlibat. Sistem pengirim bertanggung jawab untuk mengirimkan paket yang sesuai dengan MTU antarmuka jaringannya, MTU antarmuka jaringan sistem penerima, dan MTU semua jaringan di antaranya. Google Cloud tidak melakukan fragmentasi IP untuk paket yang dirutekan oleh next hop dalam jaringan VPC.

Jika paket IP terlalu besar untuk dikirimkan—misalnya, jika paket melebihi MTU jaringan VPC tempat NIC VM penerima berada— Google Cloud akan menghapus paket tersebut. Jika bit DF paket disetel, Google Cloud juga mengirim pesan Fragmentation Needed (ICMP over IPv4) atau Packet Too Big (ICMPv6) kembali ke pengirim.

Google Cloud mengirim pesan Fragmentasi Diperlukan atau Paket Terlalu Besar dalam situasi berikut, meskipun bit DF nonaktif:

  • Jika MTU jaringan VPC kurang dari 1.600 byte, dan paket yang dikirim melebihi MTU jaringan VPC.
  • Jika MTU jaringan VPC adalah 1.600 byte atau lebih, dan paket yang dikirim melebihi 1.600 byte.

Pesan ICMP Fragmentation Needed atau Packet Too Big diperlukan agar VM yang mengirim paket dapat menggunakan Path MTU discovery (PMTUD). Untuk mengilustrasikan cara kerja PMTUD, pertimbangkan contoh berikut dengan dua VM di jaringan VPC yang berbeda yang terhubung menggunakan Peering Jaringan VPC:

  • VM pengirim memiliki NIC di jaringan VPC yang MTU-nya adalah 8.896 byte.
  • VM penerima memiliki NIC di jaringan VPC yang MTU-nya adalah 1.460 byte.
  • VM pengirim memancarkan paket IP 8.000 byte yang bit Don't Fragment (DF)-nya ditetapkan. Karena paket terlalu besar untuk dikirim ke VM penerima,Google Cloud akan mengirim pesan Fragmentasi Diperlukan atau Paket Terlalu Besar ke VM pengirim. Pesan ini menunjukkan ukuran paket IP terbesar yang dapat digunakan pengirim saat mencoba mengirim ulang paket untuk koneksi.
  • Sistem operasi VM pengirim menggunakan informasi ini untuk mengurangi ukuran paket IP saat mengirim paket berikutnya ke VM penerima.

PMTUD memiliki persyaratan tambahan berikut karena paket Fragmentation Needed atau Packet Too Big yang dihasilkan PMTUD menggunakan protokol ICMP dan memiliki sumber yang cocok dengan tujuan paket asli:

  • Anda harus mengonfigurasi aturan firewall VPC izinkan masuk atau aturan dalam kebijakan firewall sehingga ICMP (untuk IPv4) atau ICMPv6 (untuk IPv6) diizinkan dari sumber yang cocok dengan tujuan paket asli. Untuk menyederhanakan konfigurasi firewall, pertimbangkan untuk mengizinkan ICMP dan ICMPv6 dari semua sumber.
  • Aturan penerusan untuk Load Balancer Jaringan passthrough internal dan penerusan protokol internal harus menggunakan protokol L3_DEFAULT agar dapat memproses ICMP untuk PMTUD dan protokol yang digunakan oleh paket asli.

Langkah berikutnya

Coba sendiri

Jika Anda baru menggunakan Google Cloud, buat akun untuk mengevaluasi performa VPC dalam skenario dunia nyata. Pelanggan baru mendapatkan kredit gratis senilai $300 untuk menjalankan, menguji, dan men-deploy workload.

Coba VPC gratis