Tentang alur traffic
Halaman ini menjelaskan cara Log Aliran VPC melaporkan log untuk alur traffic umum. Lihat bagian berikut untuk mengetahui contohnya:
- Aliran VM, Aliran GKE, dan Aliran konektivitas campuran menjelaskan aliran dalam Google Cloud dan aliran antara Google Cloud dan resource di luar Google Cloud. Contoh untuk aliran di antara projectGoogle Cloud yang berbeda mengasumsikan bahwa Log Aliran VPC dikonfigurasi di tingkat project.
- Aliran antara jaringan VPC di project yang berbeda menjelaskan cara aliran lintas project dianotasi saat Log Aliran VPC dikonfigurasi di tingkat organisasi.
Alur VM
Bagian berikut memberikan contoh cara VPC Flow Logs menganotasi alur traffic dari dan ke instance virtual machine (VM).
Aliran VM-ke-VM dalam jaringan VPC yang sama
Untuk aliran VM-ke-VM di jaringan VPC yang sama, log aliran
dilaporkan dari VM yang meminta dan merespons, selama kedua VM berada di
subnet yang mengaktifkan Log Aliran VPC. Dalam contoh ini, VM 10.10.0.2
mengirim permintaan dengan 1.224 byte ke VM 10.50.0.2
, yang juga berada di subnet yang mengaktifkan logging. Selanjutnya, 10.50.0.2
akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat dari VM yang meminta dan merespons.
Seperti yang dilaporkan oleh VM yang meminta (10.10.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.10.0.2 | 10.50.0.2 | 1.224 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* |
balasan | 10.50.0.2 | 10.10.0.2 | 5.342 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* |
Seperti yang dilaporkan oleh VM yang merespons (10.50.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.10.0.2 | 10.50.0.2 | 1.224 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* |
balasan | 10.50.0.2 | 10.10.0.2 | 5.342 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* |
Aliran VM-ke-alamat IP eksternal
Untuk aliran yang melintasi internet antara VM yang ada dalam jaringan VPC dan endpoint dengan alamat IP eksternal, log aliran dilaporkan dari VM yang ada di jaringan VPC saja:
- Untuk aliran keluar, log dilaporkan dari VM jaringan VPC yang merupakan sumber traffic.
- Untuk aliran masuk, log dilaporkan dari VM jaringan VPC yang merupakan tujuan traffic.
Dalam contoh ini, VM 10.10.0.2
bertukar paket melalui internet dengan endpoint yang memiliki alamat IP eksternal 203.0.113.5
. Traffic keluar
sebesar 1.224 byte yang dikirim dari 10.10.0.2
ke 203.0.113.5
dilaporkan dari
VM sumber, 10.10.0.2
. Traffic masuk sebesar 5.342 byte yang dikirim dari 203.0.113.5
ke 10.10.0.2
dilaporkan dari tujuan traffic, VM 10.10.0.2
.
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
---|---|---|---|---|
permintaan | 10.10.0.2 | 203.0.113.5 | 1.224 |
src_instance.* src_vpc.* dest_location.* internet_routing_details.* |
balasan | 203.0.113.5 | 10.10.0.2 | 5.342 |
src_location.* dest_instance.* dest_vpc.* |
Aliran VM-ke-VM untuk VPC Bersama
Untuk aliran VM-ke-VM untuk VPC Bersama, Anda dapat mengaktifkan Log Aliran VPC untuk subnet dalam project host. Misalnya, subnet 10.10.0.0/20
termasuk dalam jaringan VPC Bersama yang ditentukan dalam project host. Anda dapat melihat log aliran dari VM milik subnet ini, termasuk yang dibuat oleh project layanan. Dalam contoh ini, project layanan disebut "web server", "recommendation",
"database".
Untuk aliran VM-ke-VM, jika kedua VM berada di project yang sama, atau dalam kasus jaringan bersama, project host yang sama, anotasi untuk project ID, dan sejenisnya akan diberikan untuk endpoint lainnya dalam koneksi. Jika VM lain berada di project yang berbeda, anotasi untuk VM lainnya tidak akan diberikan.
Tabel berikut menunjukkan aliran seperti yang dilaporkan oleh 10.10.0.10
atau
10.10.0.20
.
src_vpc.project_id
dandest_vpc.project_id
ditujukan untuk project host karena subnet VPC adalah milik project host.src_instance.project_id
dandest_instance.project_id
ditujukan untuk project layanan karena instance termasuk dalam project layanan.
connection .src_ip |
src_instance .project_id |
src_vpc .project_id |
connection .dest_ip |
dest_instance .project_id |
dest_vpc .project_id |
---|---|---|---|---|---|
10.10.0.10 | server web | host_project | 10.10.0.20 | rekomendasi | host_project |
Project layanan tidak memiliki jaringan VPC Bersama dan tidak memiliki akses ke log aliran jaringan VPC Bersama.
Aliran VM-ke-VM untuk Peering Jaringan VPC
Kecuali jika kedua VM berada dalam project Google Cloud yang sama, aliran VM-ke-VM untuk jaringan VPC yang di-peering dilaporkan dengan cara yang sama seperti untuk endpoint eksternal—project dan informasi anotasi lain untuk VM lain tidak disediakan. Jika kedua VM berada di project yang sama, meskipun di jaringan yang berbeda, informasi project dan anotasi lainnya juga akan diberikan untuk VM lainnya.
Dalam contoh ini, subnet VM 10.10.0.2
di project analytics-prod dan VM 10.50.0.2
di project webserver-test terhubung melalui Peering Jaringan VPC.
Jika Log Aliran VPC diaktifkan di project analytics-prod, traffic
(1.224 byte) yang dikirim dari 10.10.0.2
ke 10.50.0.2
dilaporkan dari VM 10.10.0.2
, yang merupakan sumber aliran. Traffic (5.342 byte) yang dikirim dari 10.50.0.2
ke 10.10.0.2
juga dilaporkan dari VM 10.10.0.2
, yang merupakan tujuan aliran.
Dalam contoh ini, Log Aliran VPC tidak diaktifkan di project webserver-test, sehingga tidak ada log yang dicatat oleh VM 10.50.0.2
.
pelapor | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
---|---|---|---|---|
sumber | 10.10.0.2 | 10.50.0.2 | 1.224 |
src_instance.* src_vpc.* |
tujuan | 10.50.0.2 | 10.10.0.2 | 5.342 |
dest_instance.* dest_vpc.* |
Alur VM ke VM melalui Private Service Connect
Log Aliran VPC menganotasi alur antara konsumen Private Service Connect dan layanan yang dipublikasikan. Contoh berikut menjelaskan cara Log Aliran VPC menganotasi data log untuk VM konsumen dan produsen.
Aliran traffic ke layanan yang dipublikasikan Private Service Connect
dilaporkan dari VM konsumen dan produsen selama kedua VM berada di subnet
yang mengaktifkan Log Aliran VPC. Dalam contoh ini, VM konsumen,
10.10.0.2
, mengirim permintaan dengan 1.224 byte ke
endpoint Private Service Connect, 10.10.0.3
. Di VPC produsen, alamat IP sumber permintaan diterjemahkan ke alamat IP di subnet lampiran layanan, yang dalam contoh ini adalah 10.40.0.2
. Alamat IP tujuan permintaan diterjemahkan
ke alamat IP Load Balancer Jaringan passthrough internal, 10.50.0.3
. Permintaan tersebut kemudian menjangkau VM backend, 10.50.0.2
, yang juga berada di subnet yang mengaktifkan logging.
Selanjutnya, 10.50.0.2
akan merespons permintaan tersebut dengan balasan yang berisi 5.342
byte. Permintaan dan balasan dicatat dari VM yang meminta dan merespons. Log dari VM konsumen tersedia di
project konsumen, dan log dari VM produsen tersedia di
project produsen.
Seperti yang dilaporkan oleh VM konsumen (10.10.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.10.0.2 | 10.10.0.3 | 1.224 |
src_instance.* src_vpc.* psc.reporter psc.psc_endpoint.* psc.psc_attachment.* |
balasan | 10.10.0.3 | 10.10.0.2 | 5.342 |
dest_instance.* dest_vpc.* psc.reporter psc.psc_endpoint.* psc.psc_attachment.* |
Seperti yang dilaporkan oleh VM produsen (10.50.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.40.0.2 | 10.50.0.3 | 1.224 |
dest_instance.* dest_vpc.* psc.reporter psc.psc_attachment.* |
balasan | 10.50.0.3 | 10.40.0.2 | 5.342 |
src_instance.* src_vpc.* psc.reporter psc.psc_attachment.* |
Alur VM-ke-Google API
Untuk traffic VM ke Google API melalui alamat IP eksternal VM, Akses Google Pribadi, atau endpoint Private Service Connect, VPC Flow Logs menganotasi data log dengan informasi Google API. Contoh berikut menjelaskan cara VPC Flow Logs menganotasi data log untuk VM yang mengakses Google API global melalui endpoint Private Service Connect.
Aliran traffic ke Google API dilaporkan oleh VM konsumen, selama VM berada di subnet yang mengaktifkan VPC Flow Logs. Dalam contoh ini, VM konsumen, 10.10.0.2
, mengirim permintaan dengan 1.224 byte ke endpoint Private Service Connect, 10.10.110.10
. Permintaan tersebut
akan diteruskan ke layanan Google yang sesuai, misalnya, Cloud Storage. Selanjutnya, Cloud Storage akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat dari VM yang meminta.
Seperti yang dilaporkan oleh VM konsumen (10.10.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.10.0.2 | 10.10.110.10 | 1.224 |
src_instance.* src_vpc.* dest_google_service.* psc.reporter psc.psc_endpoint.* |
balasan | 10.10.110.10 | 10.10.0.2 | 5.342 |
src_google_service.* dest_instance.* dest_vpc.* psc.reporter psc.psc_endpoint.* |
Aliran VM melalui Cloud Load Balancing
VPC Flow Logs menganotasi traffic yang dikirim melalui Load Balancer Jaringan passthrough, Load Balancer Jaringan proxy, atau Load Balancer Aplikasi. Contoh berikut mengasumsikan bahwa load balancer ini dikonfigurasi sebagai load balancer internal.
Aliran VM-ke-VM melalui Load Balancer Jaringan passthrough internal
Saat Anda menambahkan VM ke layanan backend untuk Load Balancer Jaringan passthrough internal, Google Cloud akan menambahkan alamat IP load balancer ke server tabel perutean lokal VM. Hal ini memungkinkan VM menerima paket permintaan dengan tujuan yang ditetapkan ke alamat IP load balancer. Saat VM membalas, VM akan mengirimkan responsnya secara langsung. Namun, alamat IP sumber untuk paket respons ditetapkan ke alamat IP load balancer, bukan VM yang mengalami load balancing.
Aliran VM-ke-VM yang dikirim melalui Load Balancer Jaringan passthrough internal dilaporkan dari sumber dan tujuan.
Seperti yang dilaporkan oleh VM klien (192.168.1.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 192.168.1.2 | 10.240.0.200 | 1.224 |
src_instance.* src_vpc.* load_balancing.forwarding_rule_project_id load_balancing.reporter load_balancing.type load_balancing.scheme load_balancing.forwarding_rule_name load_balancing.backend_service_name load_balancing.vpc.* |
balasan | 10.240.0.200 | 192.168.1.2 | 5.342 |
dest_instance.* dest_vpc.* load_balancing.forwarding_rule_project_id load_balancing.reporter load_balancing.type load_balancing.scheme load_balancing.forwarding_rule_name load_balancing.backend_service_name load_balancing.vpc.* |
Seperti yang dilaporkan oleh VM backend (10.240.0.3) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 192.168.1.2 | 10.240.0.200 | 1.224 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* load_balancing.* (semua kolom kecuali url_map_name) |
balasan | 10.240.0.200 | 192.168.1.2 | 5.342 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* load_balancing.* (semua kolom kecuali url_map_name) |
Dalam permintaan yang didistribusikan load balancer ke VM backend, alamat IP sumber ditetapkan ke alamat IP VM klien. Artinya, VM backend dapat menyediakan informasi src_instance
dan dest_instance
tentang VM klien. Namun, tidak seperti VM backend, VM klien tidak dapat menambahkan
informasi src_instance
dan dest_instance
tentang VM backend ke
laporannya karena mengirimkan permintaan ke dan menerima respons dari
alamat IP load balancer, bukan VM backend.
Aliran VM melalui Load Balancer Jaringan proxy internal atau Load Balancer Aplikasi internal
Aliran traffic melalui Load Balancer Jaringan proxy internal
atau Load Balancer Aplikasi internal dilaporkan oleh VM
klien, selama VM klien berada di subnet yang telah mengaktifkan
Log Aliran VPC. Misalnya, VM klien dengan alamat IP 10.10.0.2
mengirim permintaan dengan 1.224 byte ke endpoint load balancer, 10.10.0.3
. Permintaan tersebut kemudian mencapai backend. Selanjutnya, backend akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte.
Permintaan dan balasan dicatat di VM klien. Log dari VM klien tersedia di project Google Cloud tempat VM berada.
Seperti yang dilaporkan oleh VM klien (10.10.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.10.0.2 | 10.10.0.3 | 1.224 |
src_instance.* src_vpc.* load_balancing.forwarding_rule_project_id load_balancing.reporter load_balancing.type load_balancing.scheme load_balancing.url_map_name (untuk Application Load Balancer) load_balancing.forwarding_rule_name load_balancing.vpc.* |
balasan | 10.10.0.3 | 10.10.0.2 | 5.342 |
dest_instance.* dest_vpc.* load_balancing.forwarding_rule_project_id load_balancing.reporter load_balancing.type load_balancing.scheme load_balancing.url_map_name (untuk Application Load Balancer) load_balancing.forwarding_rule_name load_balancing.vpc.* |
Aliran GKE
Bagian berikut memberikan contoh cara Log Aliran Traffic VPC menambahkan anotasi pada traffic GKE dari dan ke Pod.
Aliran Pod ke ClusterIP
Dalam contoh ini, traffic dikirim dari Pod klien (10.4.0.2
) ke cluster-service
(10.0.32.2:80
). Tujuan ditetapkan ke alamat IP Pod server yang dipilih (10.4.0.3
) pada port target (8080
).
Di edge node, flow diambil sampelnya dua kali dengan port dan alamat IP
yang diterjemahkan. Untuk kedua titik pengambilan sampel, kita akan mengidentifikasi bahwa Pod tujuan
mendukung cluster-service
layanan pada port 8080
, dan menganotasi data dengan
detail Service serta detail Pod. Jika traffic dirutekan ke Pod di node yang sama, traffic tidak akan meninggalkan node dan tidak diambil sampelnya sama sekali.
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
SRC | 10.4.0.2 | 10.4.0.3 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* src_gke_details.pod.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
DEST | 10.4.0.2 | 10.4.0.3 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* src_gke_details.pod.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
Aliran LoadBalancer eksternal GKE
Traffic dari alamat IP eksternal ke layanan GKE (35.35.35.35
) dirutekan ke node dalam cluster—10.0.12.2
dalam contoh ini—untuk perutean. Secara default, Load Balancer Jaringan passthrough eksternal mendistribusikan traffic ke semua node dalam cluster, bahkan yang tidak menjalankan Pod yang relevan. Traffic mungkin
memerlukan hop ekstra untuk mencapai Pod yang relevan. Untuk mengetahui informasi selengkapnya, lihat Jaringan di luar cluster.
Traffic dirutekan dari node (10.0.12.2
) ke Pod server yang dipilih (10.4.0.2
). Kedua hop dicatat karena semua edge node diambil sampelnya. Jika traffic dirutekan ke Pod di node yang sama—10.4.0.3
dalam contoh ini—hop kedua tidak akan dicatat dalam log karena tidak meninggalkan node.
Hop kedua dicatat ke dalam log oleh titik pengambilan sampel dari kedua node. Untuk hop pertama, kami mengidentifikasi Service berdasarkan IP load balancer dan port Service (80
). Untuk hop kedua, kami mengidentifikasi bahwa Pod tujuan mendukung Service pada port target (8080
).
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
DEST | 203.0.113.1 | 35.35.35.35 | 1.224 |
src_location.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.service.* |
SRC | 10.0.12.2 | 10.4.0.2 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
DEST | 10.0.12.2 | 10.4.0.2 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
Aliran Ingres GKE
Koneksi dari alamat IP eksternal ke tujuan Ingress dihentikan di layanan Cloud Load Balancing. Koneksi dipetakan ke Service NodePort sesuai dengan URL. Untuk melayani permintaan, load balancer
(130.211.0.1
) terhubung ke salah satu node cluster (10.0.12.2
) untuk perutean
menggunakan NodePort layanan. Secara default, saat membuat objek Ingress, pengontrol Ingress GKE mengonfigurasi load balancer HTTP(S) yang mendistribusikan traffic di semua node dalam cluster, termasuk yang tidak menjalankan Pod yang relevan. Traffic mungkin memerlukan hop ekstra untuk mencapai
Pod yang relevan. Untuk mengetahui informasi selengkapnya, lihat Jaringan di luar cluster.
Traffic dirutekan dari node (10.0.12.2
) ke Pod server yang dipilih (10.4.0.2
).
Kedua hop dicatat karena semua edge node diambil sampelnya. Untuk hop pertama, kami mengidentifikasi Service berdasarkan NodePort (60000
) Service. Untuk hop kedua, kita mengidentifikasi bahwa Pod tujuan mendukung Service pada port target (8080
). Hop kedua dicatat oleh titik pengambilan sampel kedua node.
Namun, jika traffic dirutekan ke Pod pada node yang sama (10.4.0.3
), hop kedua tidak akan dicatat dalam log karena traffic tidak meninggalkan node.
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
DEST | 130.211.0.1 | 10.0.12.2 | 1.224 |
dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.service.* |
SRC | 10.0.12.2 | 10.4.0.2 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
DEST | 10.0.12.2 | 10.4.0.2 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
Aliran Ingress GKE menggunakan load balancing berbasis container
Permintaan dari alamat IP eksternal ke tujuan Ingress yang menggunakan load balancing berbasis container dihentikan di load balancer. Dalam jenis Ingress ini, Pod adalah objek inti untuk load balancing.
Kemudian, permintaan dikirim dari load balancer (130.211.0.1
) langsung ke Pod yang dipilih (10.4.0.2
). Kami mengidentifikasi bahwa Pod tujuan mendukung Service pada port target (8080).
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
DEST | 130.211.0.1 | 10.4.0.2 | 1.224 |
dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
Pod ke aliran eksternal
Traffic dari Pod (10.4.0.3
) ke IP eksternal (203.0.113.1
) dimodifikasi oleh penyamaran IP sehingga paket dikirim dari IP node (10.0.12.2
), bukan alamat IP Pod. Secara default, cluster GKE dikonfigurasi untuk menyamarkan traffic ke tujuan eksternal. Untuk mengetahui informasi selengkapnya, lihat
Agen penyamaran IP.
Agar dapat melihat anotasi Pod untuk traffic ini, Anda dapat mengonfigurasi agen penyamaran agar tidak menyamarkan alamat IP Pod. Dalam kasus semacam ini, untuk mengizinkan traffic ke internet, Anda dapat mengonfigurasi Cloud NAT, yang memproses alamat IP Pod. Untuk mengetahui informasi lebih lanjut tentang Cloud NAT dengan GKE, tinjau interaksi GKE.
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
SRC | 10.0.12.2 | 203.0.113.1 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_location.* internet_routing_details.* |
Alur konektivitas hybrid
Untuk traffic antara Google Cloud dan jaringan lokal, Log Aliran VPC menganotasi alur antara instance VM—termasuk instance yang digunakan sebagai node GKE—dan endpoint lokal, antara Google API dan endpoint lokal, serta traffic transit antara endpoint lokal. Contoh berikut menjelaskan cara VPC Flow Logs menganotasi aliran antara instance VM di jaringan VPC dan endpoint lokal.
Untuk aliran antara VM yang ada di jaringan VPC dan endpoint lokal dengan alamat IP internal, log aliran dilaporkan dariGoogle Cloud saja. Referensi berikut melaporkan log alur:
- VM. Melaporkan log aliran jika subnet yang terhubung ke VM telah mengaktifkan Log Aliran VPC.
- Gateway yang menghubungkan jaringan VPC ke endpoint lokal. Melaporkan log alur jika gateway mengaktifkan Log Aliran VPC.
Pada diagram sebelumnya, endpoint lokal 10.30.0.2
mengirim permintaan
dengan 1.224 byte ke VM 10.0.0.2
di jaringan VPC melalui
Cloud Interconnect. Selanjutnya, 10.0.0.2
VM akan merespons permintaan tersebut dengan
balasan yang berisi 5.243 byte. Permintaan dan balasan dicatat dari lampiran VLAN untuk Cloud Interconnect dan VM.
Seperti yang dilaporkan oleh lampiran VLAN | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.30.0.2 | 10.0.0.2 | 1.224 |
src_gateway.* dest_instance.* dest_vpc.* |
balasan | 10.0.0.2 | 10.30.0.2 | 5.342 |
src_instance.* src_vpc.* dest_gateway.* |
Seperti yang dilaporkan oleh VM (10.0.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.30.0.2 | 10.0.0.2 | 1.224 |
src_gateway.* dest_instance.* dest_vpc.* |
balasan | 10.0.0.2 | 10.30.0.2 | 5.342 |
src_instance.* src_vpc.* dest_gateway.* |
Aliran antara jaringan VPC di project yang berbeda
Jika Log Aliran VPC dikonfigurasi untuk organisasi dan anotasi lintas project diaktifkan (default), aliran traffic antar-jaringan VPC di project yang berbeda akan dianotasikan dengan cara yang sama seperti aliran traffic antar-jaringan VPC dalam project yang sama; data log untuk aliran ini memberikan informasi tentang kedua sisi koneksi.
Jika anotasi lintas project dinonaktifkan, data log hanya memberikan informasi tentang pelapor alur traffic.
Anotasi lintas project diaktifkan
Contoh berikut menjelaskan cara Log Aliran VPC menganotasi data log untuk aliran VM-ke-VM antar-project saat anotasi lintas project diaktifkan. Anotasi lintas project tersedia untuk aliran traffic melalui VPC Bersama, Peering Jaringan VPC, dan Network Connectivity Center.
VM 10.0.0.2 mengirim permintaan dengan 1.224 byte ke VM 10.0.0.1.2. Selanjutnya, VM 10.0.0.1.2 merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat dari VM yang meminta dan merespons.
Seperti yang dilaporkan oleh VM yang meminta (10.0.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.0.0.2 | 10.0.1.2 | 1.224 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* |
balasan | 10.0.1.2 | 10.0.0.2 | 5.342 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* |
Seperti yang dilaporkan oleh VM yang merespons (10.0.1.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.0.0.2 | 10.0.1.2 | 1.224 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* |
balasan | 10.0.1.2 | 10.0.0.2 | 5.342 |
src_instance.* src_vpc.* dest_instance.* dest_vpc.* |
Anotasi lintas project dinonaktifkan
Contoh berikut menjelaskan cara Log Aliran VPC menganotasi data log untuk aliran VM-ke-VM antar-project saat anotasi lintas project dinonaktifkan.
VM 10.0.0.2 mengirim permintaan dengan 1.224 byte ke VM 10.0.0.1.2. Selanjutnya, VM 10.0.0.1.2 merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat dari VM yang meminta dan merespons. Namun, informasi tentang VM lain tidak diberikan.
Seperti yang dilaporkan oleh VM yang meminta (10.0.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.0.0.2 | 10.0.1.2 | 1.224 |
src_instance.* src_vpc.* |
balasan | 10.0.1.2 | 10.0.0.2 | 5.342 |
dest_instance.* dest_vpc.* |
Seperti yang dilaporkan oleh VM yang merespons (10.0.1.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.0.0.2 | 10.0.1.2 | 1.224 |
dest_instance.* dest_vpc.* |
balasan | 10.0.1.2 | 10.0.0.2 | 5.342 |
src_instance.* src_vpc.* |