トラフィック フローについて

このページでは、一般的なユースケースで VPC フローログがフローログを報告する方法について説明します。VPC フローログによってサンプリングされたトラフィック フローの例については、次のセクションをご覧ください。

VM フロー

次のセクションでは、VPC フローログが仮想マシン(VM)インスタンスによって送受信されるトラフィックをサンプリングする方法の例を示します。VPC フローログが Google Kubernetes Engine(GKE)Pod のフローログを報告する方法については、GKE フローをご覧ください。

同一 VPC ネットワークでの VM から VM へのフロー

VPC ネットワーク内での VM フロー。
VPC ネットワーク内での VM のフロー(クリックして拡大)

同じ VPC ネットワークの VM から VM へのフローでは、VPC フローログが有効になっているサブネットに両方の VM がある場合、フローログはリクエストとレスポンスの両方の VM から報告されます。この例では、VM 10.10.0.2 が 1,224 バイトのリクエストを、同様にロギングが有効になっているサブネット内にある VM 10.50.0.2 に送信します。次に、10.50.0.2 は 5,342 バイトを含む応答でリクエストに応答します。リクエストと応答の両方が、要求側 VM と応答側 VM の両方から記録されます。

要求側 VM(10.10.0.2)による報告
リクエスト / 応答 connection.src_ip connection.dest_ip bytes_sent アノテーション
リクエスト 10.10.0.2 10.50.0.2 1,224 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
返信 10.50.0.2 10.10.0.2 5,342 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
応答側 VM(10.50.0.2)による報告
リクエスト / 応答 connection.src_ip connection.dest_ip バイト アノテーション
リクエスト 10.10.0.2 10.50.0.2 1,224 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
返信 10.50.0.2 10.10.0.2 5,342 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*

VM から外部 IP アドレスへのフロー

VM から外部 IP アドレスへのフロー。
VM から外部 IP アドレスへのフロー(クリックして拡大)

VPC ネットワークの VM と外部 IP アドレスを持つエンドポイントの間でインターネットを通過するフローの場合、フローログは、VPC ネットワークの VM からのみ報告されます。

  • 下り(外向き)フローの場合、ログはトラフィックの送信元である VPC ネットワーク VM から報告されます。
  • 上り(内向き)フローの場合、ログはトラフィックの宛先である VPC ネットワーク VM から報告されます。

この例では、VM 10.10.0.2 は、インターネットを介して、外部 IP アドレス 203.0.113.5 を持つエンドポイントとパケットを交換します。10.10.0.2 から 203.0.113.5 に送信された 1,224 バイトの発信トラフィックは、送信元 VM 10.10.0.2 から報告されます。203.0.113.5 から 10.10.0.2 に送信された 5,342 バイトの受信トラフィックは、トラフィックの宛先である VM 10.10.0.2 から報告されます。

リクエスト / 応答 connection.src_ip connection.dest_ip bytes_sent アノテーション
リクエスト 10.10.0.2 203.0.113.5 1,224 src_instance.*
src_vpc.*
dest_location.*
internet_routing_details.*
reply 203.0.113.5 10.10.0.2 5,342 dest_instance.*
dest_vpc.*
src_location.*

共有 VPC での VM から VM へのフロー

共有 VPC でのフロー。
共有 VPC でのフロー(クリックして拡大)

共有 VPC での VM から VM へのフローの場合は、ホスト プロジェクトでサブネットに対して VPC フローログを有効にできます。たとえば、サブネット 10.10.0.0/20 が、ホスト プロジェクトで定義されている共有 VPC ネットワークに属しているとします。このサブネットに属する VM のフローログを確認できます(サービス プロジェクトによって作成されたものを含みます)。この例では、サービス プロジェクトは "web server"、"recommendation"、"database" と呼ばれます。

VM から VM へのフローの場合に、両方の VM が同じプロジェクト内にある場合、または共有ネットワーク内にある場合、同じホスト プロジェクトや、プロジェクト ID のアノテーションなどが接続のもう一方のエンドポイントで提供されます。他の VM が別のプロジェクトにある場合、その他の VM のアノテーションは提供されません。

次の表には、10.10.0.10 または 10.10.0.20 で報告されるフローが示されています。

  • src_vpc.project_iddest_vpc.project_id は VPC サブネットがホスト プロジェクトに属しているため、ホスト プロジェクト用のものです。
  • src_instance.project_iddest_instance.project_id はインスタンスがサービス プロジェクトに属しているため、サービス プロジェクト用のものです。
connection
.src_ip
src_instance
.project_id
src_vpc
.project_id
connection
.dest_ip
dest_instance
.project_id
dest_vpc
.project_id
10.10.0.10 web server host_project 10.10.0.20 recommendation host_project

サービス プロジェクトは独自の共有 VPC ネットワークを所有していないため、共有 VPC ネットワークのフローログにアクセスできません。

VPC ネットワーク ピアリングでの VM から VM へのフロー

VPC ネットワーク ピアリング フロー。
VPC ネットワーク ピアリングでのフロー(クリックして拡大)

両方の VM が同じ Google Cloud プロジェクトにない場合、ピアリングされた VPC ネットワークの VM から VM へのフローは外部エンドポイントの場合と同じ方法で報告されます。他の VM に関するプロジェクトとその他のアノテーション情報は提供されません。両方の VM が同じプロジェクトにある場合、異なるネットワーク上にある場合でも、プロジェクトとその他のアノテーション情報は他の VM についても提供されます。

次の例では、プロジェクト analytics-prod の VM 10.10.0.2 およびプロジェクト webserver-test の VM 10.50.0.2 のサブネットが VPC ネットワーク ピアリングで接続されています。VPC フローログがプロジェクト analytics-prod で有効になると、10.10.0.2 から 10.50.0.2 に送信されるトラフィック(1,224 バイト)が、フローの送信元である VM 10.10.0.2 から報告されます。10.50.0.2 から 10.10.0.2 に送信されるトラフィック(5,342 バイト)も、フローの宛先である VM 10.10.0.2 から報告されます。

この例では、VPC フローログはプロジェクト webserver-test で有効になっていないため、VM 10.50.0.2 でログは記録されません。

reporter connection.src_ip connection.dest_ip bytes_sent アノテーション
ソース 10.10.0.2 10.50.0.2 1,224 src_instance.*
src_vpc.*
destination 10.50.0.2 10.10.0.2 5,342 dest_instance.*
dest_vpc.*

Cloud Load Balancing を使用した VM フロー

Cloud Load Balancing を介したフローの場合、VPC フローログは、パススルー ネットワーク ロードバランサ、プロキシ ネットワーク ロードバランサ、またはアプリケーション ロードバランサを介して送信されたトラフィックをアノテーションします。次の例では、これらのロードバランサが内部ロードバランサとして構成されていることを前提としています。

内部パススルー ネットワーク ロードバランサを介した VM から VM へのフロー

内部パススルー ネットワーク ロードバランサのフロー。
内部パススルー ネットワーク ロードバランサのフロー(クリックして拡大)

内部パススルー ネットワーク ロードバランサのバックエンド サービスに VM を追加すると、Google Cloud はロードバランサの IP アドレスを VM のローカル ルーティング テーブルに追加します。これにより、宛先がロードバランサの IP アドレスに設定されたリクエスト パケットを VM が受け入れられるようになります。VM が応答すると、そのレスポンスが直接送信されます。ただし、レスポンス パケットの送信元 IP アドレスは、負荷分散される VM ではなく、ロードバランサの IP アドレスに設定されます。

内部パススルー ネットワーク ロードバランサを介して送信された VM から VM へのフローは、送信元と宛先の両方から報告されます。

クライアント VM(192.168.1.2)による報告
リクエスト / 応答 connection.src_ip connection.dest_ip bytes_sent アノテーション
リクエスト 192.168.1.2 10.240.0.200 1,224 src_instance.*
src_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.forwarding_rule_name
load_balancing.backend_service_name
load_balancing.vpc.*
応答 10.240.0.200 192.168.1.2 5,342 dest_instance.*
dest_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.forwarding_rule_name
load_balancing.backend_service_name
load_balancing.vpc.*
バックエンド VM(10.240.0.3)による報告
リクエスト / 応答 connection.src_ip connection.dest_ip バイト アノテーション
リクエスト 192.168.1.2 10.240.0.200 1,224 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
load_balancing.* (url_map_name を除くすべてのフィールド)
応答 10.240.0.200 192.168.1.2 5,342 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
load_balancing.* (url_map_name を除くすべてのフィールド)

ロードバランサがバックエンド VM に分散するリクエストでは、送信元 IP アドレスがクライアント VM の IP アドレスに設定されます。つまり、バックエンド VM はクライアント VM に関する src_instancedest_instance の情報を指定できます。ただし、バックエンド VM とは異なり、クライアント VM はバックエンド VM に関する src_instance 情報と dest_instance 情報をレポートに追加できません。これは、クライアント VM はバックエンド VM ではなくロードバランサの IP アドレスにリクエストを送信し、ロードバランサの IP アドレスからレスポンスを受信するためです。

VM から内部プロキシ ネットワーク ロードバランサへのフロー、VM から内部アプリケーション ロードバランサへのフロー

内部プロキシ ネットワーク ロードバランサまたは内部アプリケーション ロードバランサを通過するトラフィック フローは、クライアント VM が VPC フローログが有効になっているサブネット内にある限り、クライアント VM によって報告されます。たとえば、IP アドレスが 10.10.0.2 のクライアント VM が、1,224 バイトのリクエストをロードバランサ エンドポイント 10.10.0.3 に送信します。リクエストはバックエンドに到達します。次に、バックエンドは 5,342 バイトを含む応答でリクエストに応答します。リクエストとレスポンスの両方がクライアント VM に記録されます。クライアント VM のログは、VM が属する Google Cloud プロジェクトで使用できます。

クライアント VM(10.10.0.2)による報告
リクエスト / 応答 connection.src_ip connection.dest_ip bytes_sent アノテーション
リクエスト 10.10.0.2 10.10.0.3 1,224 src_instance.*
src_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.url_map_name(アプリケーション ロードバランサの場合)
load_balancing.forwarding_rule_name
load_balancing.vpc.*
応答 10.10.0.3 10.10.0.2 5,342 dest_instance.*
dest_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.url_map_name(アプリケーション ロードバランサの場合)
load_balancing.forwarding_rule_name
load_balancing.vpc.*

Private Service Connect を介した VM 間のフロー

Private Service Connect を介した VM 間のトラフィックの場合、VPC フローログは Private Service Connect コンシューマと公開サービスの間のフローをサンプリングします。

公開サービスへの Private Service Connect エンドポイント

VM は Private Service Connect を介して転送されます。
Private Service Connect を介した VM フロー(クリックして拡大)

Private Service Connect 公開サービスへのトラフィック フローは、両方の VM が VPC フローログが有効になっているサブネットにある限り、コンシューマ VM とプロデューサー VM の両方から報告されます。この例では、コンシューマ VM 10.10.0.2 が 1,224 バイトのリクエストを Private Service Connect エンドポイント 10.10.0.3 に送信します。プロデューサー VPC では、リクエストの送信元 IP アドレスがサービス アタッチメント サブネットの IP アドレスに変換されます。この例では 10.40.0.2 です。リクエストの宛先 IP アドレスは、内部パススルー ネットワーク ロードバランサの IP アドレス 10.50.0.3 に変換されます。リクエストはバックエンド VM 10.50.0.2 に到達します。この VM は、ロギングが有効になっているサブネット内にあります。次に、10.50.0.2 は 5,342 バイトを含む応答でリクエストに応答します。リクエストとレスポンスの両方が、要求側 VM と応答側 VM の両方から記録されます。コンシューマ VM のログはコンシューマ プロジェクトで使用でき、プロデューサー VM のログはプロデューサー プロジェクトで使用できます。

コンシューマ VM(10.10.0.2)による報告
リクエスト / 応答 connection.src_ip connection.dest_ip bytes_sent アノテーション
リクエスト 10.10.0.2 10.10.0.3 1,224 src_instance.*
src_vpc.*
psc.reporter
psc.psc_endpoint.*
psc.psc_attachment.*
応答 10.10.0.3 10.10.0.2 5,342 dest_instance.*
dest_vpc.*
psc.reporter
psc.psc_endpoint.*
psc.psc_attachment.*
プロデューサー VM(10.50.0.2)による報告
リクエスト / 応答 connection.src_ip connection.dest_ip bytes_sent アノテーション
リクエスト 10.40.0.2 10.50.0.3 1,224 dest_instance.*
dest_vpc.*
psc.reporter
psc.psc_attachment.*
応答 10.50.0.3 10.40.0.2 5,342 src_instance.*
src_vpc.*
psc.reporter
psc.psc_attachment.*

VM から Google API へのフロー

VM の外部 IP アドレス、限定公開の Google アクセス、または Private Service Connect エンドポイントを経由して Google API に送信される VM トラフィックの場合、VPC フローログはログレコードに Google API 情報をアノテーションします。次のセクションでは、VPC フローログが Private Service Connect エンドポイントを介してグローバル Google API にアクセスする VM のログレコードにアノテーションを付ける方法の例を示します。

VM から Private Service Connect を介してグローバル Google API

VM は Private Service Connect を介して Google API に転送されます。
Private Service Connect を経由する Google API への VM フロー(クリックして拡大)

Google API へのトラフィック フローは、VM が VPC Flow Logs が有効になっているサブネット内にある限り、コンシューマ VM によって報告されます。この例では、コンシューマ VM 10.10.0.2 が 1,224 バイトのリクエストを Private Service Connect エンドポイント 10.10.110.10 に送信します。リクエストは、Cloud Storage などの適切な Google サービスに転送されます。次に、Cloud Storage は 5,342 バイトを含む応答でリクエストに応答します。リクエストとレスポンスの両方が、リクエスト元の VM から記録されます。

コンシューマ VM(10.10.0.2)による報告
リクエスト / 応答 connection.src_ip connection.dest_ip bytes_sent アノテーション
リクエスト 10.10.0.2 10.10.110.10 1,224 src_instance.*
src_vpc.*
psc.reporter
psc.psc_endpoint.*
dest_google_service.*
応答 10.10.110.10 10.10.0.2 5,342 src_google_service.*
dest_instance.*
dest_vpc.*
psc.reporter
psc.psc_endpoint.*

GKE フロー

以降のセクションでは、VPC フローログが Pod との間の GKE トラフィックをサンプリングする方法の例を示します。

Pod から ClusterIP へのフロー

Pod からクラスタ IP へのフロー。
Pod からクラスタ IP へのフロー(クリックして拡大)

この例では、トラフィックはクライアント Pod(10.4.0.2)から cluster-service10.0.32.2:80)に送信されます。宛先は、ターゲット ポート(8080)で選択したサーバー Pod IP アドレス(10.4.0.3)に解決されます。

ノードエッジでは、変換された IP アドレスとポートを使用してフローが 2 回サンプリングされます。どちらのサンプリング ポイントでも、宛先 Pod がポート 8080 でサービス cluster-service をバックアップしていることを特定し、Service の詳細と Pod の詳細を記録します。トラフィックが同じノード上の Pod にルーティングされた場合、トラフィックはノードから離れず、サンプリングは行われません。

この例では、次のレコードが確認できます。

reporter connection.src_ip connection.dst_ip bytes_sent アノテーション
SRC 10.4.0.2 10.4.0.3 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
src_gke_details.pod.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*
DEST 10.4.0.2 10.4.0.3 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
src_gke_details.pod.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

GKE 外部 LoadBalancer のフロー

外部ロードバランサのフロー。
外部ロードバランサのフロー(クリックして拡大)

外部 IP アドレスから GKE サービス(35.35.35.35)へのトラフィックは、クラスタ内のノード(この例では 10.0.12.2)にルーティングされます。デフォルトでは、外部パススルー ネットワーク ロードバランサは、ノードが関連する Pod を実行していない場合でも、クラスタ内のすべてのノード間でトラフィックを分散します。トラフィックは、関連する Pod に到達するまでに追加のホップが必要になる場合があります。詳細については、クラスタ外のネットワーキングをご覧ください。

その後、トラフィックはノード(10.0.12.2)から選択したサーバー Pod(10.4.0.2)にルーティングされます。すべてのノードエッジがサンプリングされるため、両方のホップがログに記録されます。トラフィックが同じノード(この例では 10.4.0.3)上の Pod にルーティングされた場合、2 番目のホップはノードから離れないため、ログに記録されません。2 番目のホップは両方のノードのサンプリング ポイントによって記録されます。最初のホップでは、ロードバランサの IP とサービスポート(80)に基づいてサービスを識別します。2 番目のホップでは、宛先 Pod がターゲット ポート(8080)で Service をバックアップしています。

この例では、次のレコードが確認できます。

reporter connection.src_ip connection.dst_ip bytes_sent アノテーション
DEST 203.0.113.1 35.35.35.35 1,224 src_location.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.service.*
SRC 10.0.12.2 10.4.0.2 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*
DEST 10.0.12.2 10.4.0.2 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

GKE Ingress フロー

Ingress フロー。 Ingress フロー(クリックして拡大)

外部 IP アドレスから Ingress 宛先への接続は、Cloud Load Balancing サービスで終了します。接続は URL に従って NodePort Service にマッピングされます。リクエストを処理するために、ロードバランサ(130.211.0.1)はクラスタノード(10.0.12.2)のいずれかに接続し、Service の NodePort を使用してルーティングを行います。デフォルトでは、Ingress オブジェクトを作成すると、GKE Ingress コントローラにより HTTP(S) ロードバランサが構成されます。このロードバランサは、関連する Pod を実行していない場合でも、クラスタ内のすべてのノードにトラフィックを分散します。トラフィックは、関連する Pod に到達するまでに追加のホップが必要になる場合があります。詳細については、クラスタ外のネットワーキングをご覧ください。その後、トラフィックはノード(10.0.12.2)から選択したサーバー Pod(10.4.0.2)にルーティングされます。

すべてのノードエッジがサンプリングされるため、両方のホップがログに記録されます。最初のホップでは、Service の NodePort(60000)に基づいて Service を識別します。2 番目のホップでは、宛先 Pod がターゲット ポート(8080)で Service をサポートしていることを特定します。2 番目のホップは、両方のノードのサンプリング ポイントによって記録されます。ただし、トラフィックが同じノード(10.4.0.3)の Pod にルーティングされた場合、トラフィックがノードから離れていないため、2 番目のホップはログに記録されません。

この例では、次のレコードが確認できます。

reporter connection.src_ip connection.dst_ip bytes_sent アノテーション
DEST 130.211.0.1 10.0.12.2 1,224 dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.service.*
SRC 10.0.12.2 10.4.0.2 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*
DEST 10.0.12.2 10.4.0.2 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

コンテナ ネイティブの負荷分散を使用した GKE Ingress フロー

コンテナ ネイティブのロード バランシングを使用した Ingress フロー。
コンテナ ネイティブのロード バランシングを使用した Ingress フロー(クリックして拡大)

外部 IP アドレスからコンテナ ネイティブのロード バランシングを使用している Ingress の宛先へのリクエストは、ロードバランサで終了します。このタイプの Ingress では、Pod は負荷分散のコア オブジェクトです。次に、ロードバランサ(130.211.0.1)から選択した Pod(10.4.0.2)に直接リクエストが送信されます。宛先 Pod がターゲット ポート(8080)でサービスをバックアップすることを識別します。

この例では、次のレコードが確認できます。

reporter connection.src_ip connection.dst_ip bytes_sent アノテーション
DEST 130.211.0.1 10.4.0.2 1,224 dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

Pod から外部へのフロー

Pod から外部へのフロー。
Pod から外部へのフロー(クリックして拡大)

Pod(10.4.0.3)から外部 IP(203.0.113.1)へのトラフィックは、Pod IP ではなくノード IP(10.0.12.2)から送信されるように IP マスカレードによって変更されます。GKE クラスタは、デフォルトで外部の宛先にトラフィックをマスカレードするように構成されます。詳細については、IP マスカレード エージェントをご覧ください。

このトラフィックの Pod アノテーションを表示するには、Pod IP アドレスをマスカレードしないようにマスカレード エージェントを構成します。このような場合、インターネットへのトラフィックを許可するために、Pod IP アドレスを処理する Cloud NAT を構成できます。Cloud NAT と GKE の詳細については、GKE の操作をご覧ください。

この例では、次のレコードが確認できます。

reporter connection.src_ip connection.dst_ip bytes_sent アノテーション
SRC 10.0.12.2 203.0.113.1 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_location.*
internet_routing_details.*

ハイブリッド接続フロー

Google Cloud とオンプレミス ネットワーク間のトラフィックの場合、VPC フローログは、VM インスタンス(GKE ノードとして使用されるインスタンスを含む)とオンプレミス エンドポイント間のフロー、Google API とオンプレミス エンドポイント間のフロー、オンプレミス エンドポイント間のトランジット トラフィックにアノテーションを付けます。次の例は、VPC フローログが VPC ネットワーク内の VM インスタンスとオンプレミス エンドポイント間のフローにアノテーションを付ける方法を示しています。

VM からオンプレミス ネットワークへのフロー。
VM からオンプレミスへのフロー(クリックして拡大)

VPC ネットワーク内の VM と内部 IP アドレスを持つオンプレミス エンドポイント間のフローの場合、フローログは Google Cloud からのみ報告されます。次のリソースはフローログを報告します。

  • VM。VM が接続されているサブネットで VPC フローログが有効になっている場合は、フローログを報告します。
  • VPC ネットワークをオンプレミス エンドポイントに接続するゲートウェイ。ゲートウェイで VPC フローログが有効になっている場合は、フローログを報告します。

上の図では、オンプレミス エンドポイント 10.30.0.2 が Cloud Interconnect を介して VPC ネットワーク内の VM 10.0.0.2 に 1,224 バイトのリクエストを送信します。次に、VM 10.0.0.2 は 5,243 バイトを含む応答でリクエストに応答します。リクエストと応答の両方が、Cloud Interconnect の VLAN アタッチメントと VM の両方から記録されます。

VLAN アタッチメントで報告された値
リクエスト / 応答 connection.src_ip connection.dest_ip bytes_sent アノテーション
リクエスト 10.30.0.2 10.10.0.2 1,224 reporter
src_gateway.*
dest_instance.*
dest_vpc.*
応答 10.10.0.2 10.30.0.2 5,342 reporter
src_instance.*
src_vpc.*
dest_gateway.*
VM(10.10.0.2)による報告
リクエスト / 応答 connection.src_ip connection.dest_ip bytes_sent アノテーション
リクエスト 10.30.0.2 10.10.0.2 1,224 reporter
src_gateway.*
dest_instance.*
dest_vpc.*
応答 10.10.0.2 10.30.0.2 5,342 reporter
src_instance.*
src_vpc.*
dest_gateway.*

次のステップ