다중 네트워크 인터페이스

이 페이지에서는 Compute Engine VM 인스턴스의 다중 네트워크 인터페이스에 대해 간략하게 설명합니다. 여러 네트워크 인터페이스가 있는 VM을 다중 NIC VM이라고 합니다.

VM 인스턴스에는 항상 하나 이상의 가상 네트워크 인터페이스(vNIC)가 있습니다. 머신 유형에 따라 추가 네트워크 인터페이스를 구성할 수 있습니다.

사용 사례

멀티 NIC VM은 다음과 같은 시나리오에서 유용합니다.

  • 별도의 VPC 네트워크에 있는 리소스에 연결: 멀티 NIC VM은 VPC 네트워크 피어링 또는 Network Connectivity Center를 통해 서로 연결되지 않은 다른 VPC 네트워크에 있는 리소스에 연결할 수 있습니다.

    • 다중 NIC VM의 각 인터페이스는 별도의 VPC 네트워크에 있으므로 각 인터페이스를 고유한 목적으로 사용할 수 있습니다. 예를 들어 일부 인터페이스를 사용하여 프로덕션 트래픽을 전송하는 VPC 네트워크와 관리 또는 구성 목적의 다른 인터페이스 간에 패킷을 라우팅할 수 있습니다.

    • 각 다중 NIC VM의 게스트 OS 내에서 경로 정책과 로컬 경로 테이블을 구성해야 합니다.

  • VPC 네트워크 간의 패킷 라우팅: 다중 NIC VM은 두 개 이상의 VPC 네트워크를 연결하는 경로의 다음 홉으로 사용될 수 있습니다.

    • 다중 NIC VM의 게스트 OS 내에서 실행되는 소프트웨어는 패킷 검사, 네트워크 주소 변환(NAT) 또는 기타 네트워크 보안 기능을 실행할 수 있습니다.

    • 다중 NIC VM을 사용하여 VPC 네트워크를 연결할 때는 두 개 이상의 다중 NIC VM을 구성하여 각 VPC 네트워크의 내부 패스 스루 네트워크 부하 분산기의 백엔드로 사용하는 것이 좋습니다. 자세한 내용은 다음 홉으로 사용되는 내부 패스 스루 네트워크 부하 분산기 문서의 사용 사례를 참고하세요.

사양

다음 사양은 여러 네트워크 인터페이스가 있는 VM에 적용됩니다.

  • 인스턴스 및 네트워크 인터페이스: 모든 인스턴스에는 nic0 인터페이스가 있습니다. 최대 네트워크 인터페이스 수는 인스턴스의 머신 유형에 따라 다릅니다.

    • 인스턴스를 만들 때만 네트워크 인터페이스를 추가하거나 삭제할 수 있습니다.

    • 각 인터페이스에는 지원되는 서브넷 스택 유형 및 IP 주소 버전을 결정하는 연결된 스택 유형이 있습니다. 자세한 내용은 스택 유형 및 IP 주소를 참고하세요.

  • 각 네트워크 인터페이스의 고유한 네트워크: RDMA 네트워크 프로필로 만든 VPC 네트워크를 제외하고 각 네트워크 인터페이스는 고유한 VPC 네트워크의 서브넷을 사용해야 합니다.

    • RDMA 네트워크 프로필로 만든 VPC 네트워크의 경우 각 RDMA NIC가 고유한 서브넷을 사용하는 한 여러 RDMA NIC가 동일한 VPC 네트워크를 사용할 수 있습니다.

    • 네트워크 인터페이스가 네트워크와 서브넷을 사용하는 인스턴스를 만들려면 VPC 네트워크와 서브넷이 있어야 합니다. 네트워크 및 서브넷 만들기에 대한 자세한 내용은 VPC 네트워크 만들기 및 관리를 참조하세요.

  • 인스턴스 및 서브넷의 프로젝트: 독립형 프로젝트의 다중 NIC VM의 경우 각 네트워크 인터페이스는 VM과 동일한 프로젝트에 있는 서브넷을 사용해야 합니다.

  • IP 전달, MTU, 라우팅 고려사항: 다중 NIC VM의 경우 다음과 같은 인스턴스 및 인터페이스별 구성 옵션을 신중하게 계획해야 합니다.

    • IP 전달 옵션은 인스턴스별로 구성할 수 있으며 모든 네트워크 인터페이스에 적용됩니다. 자세한 내용은 인스턴스에 IP 전달 사용 설정을 참고하세요.

    • 각 네트워크 인터페이스는 연결된 VPC 네트워크의 MTU와 일치하는 고유한 최대 전송 단위(MTU)를 사용할 수 있습니다. 자세한 내용은 최대 전송 단위를 참고하세요.

    • 각 VM은 RFC 3442에 정의된 대로 DHCP 옵션 121을 사용하여 기본 경로를 수신합니다. 기본 경로는 nic0과 연결됩니다. 수동으로 달리 구성하지 않는 한 직접 연결된 서브넷을 제외한 모든 대상의 인스턴스에서 나가는 모든 트래픽은 nic0의 기본 경로를 통해 나갑니다.

      Linux 시스템에서는 /etc/iproute2/rt_tables 파일과 ip ruleip route 명령어를 사용하여 게스트 OS 내에서 맞춤 규칙과 경로를 구성할 수 있습니다. 자세한 내용은 게스트 OS 문서를 참고하세요. 예시를 보려면 추가 인터페이스의 라우팅 구성 튜토리얼을 참고하세요.

스택 유형 및 IP 주소

네트워크 인터페이스를 만들 때 다음 인터페이스 스택 유형 중 하나를 지정합니다.

  • IPv4 전용
  • IPv6 전용(프리뷰)
  • 이중 스택

다음 표에는 지원되는 서브넷 스택 유형과 각 인터페이스 스택 유형의 IP 주소 세부정보가 나와 있습니다.

인터페이스 IPv4 전용 서브넷 이중 스택 서브넷 IPv6 전용 서브넷(프리뷰) IP 주소 세부정보
IPv4 전용(단일 스택) IPv4 주소만 IPv4 주소 세부정보를 참고하세요.
IPv4 및 IPv6(이중 스택) IPv4 및 IPv6 주소 모두. IPv4 주소 세부정보IPv6 주소 세부정보를 참고하세요.
IPv6 전용(단일 스택)(프리뷰) IPv6 주소만. IPv6 주소 세부정보를 참고하세요.

네트워크 인터페이스 스택 유형 변경

다음과 같이 네트워크 인터페이스의 스택 유형을 변경할 수 있습니다.

  • 인터페이스의 서브넷이 이중 스택 서브넷이거나 인스턴스를 중지하고 인터페이스를 이중 스택 서브넷에 할당하는 경우 IPv4 전용 인터페이스를 이중 스택으로 변환할 수 있습니다.

  • 이중 스택 인터페이스를 IPv4 전용으로 변환할 수 있습니다.

IPv6 전용 인터페이스의 스택 유형은 변경할 수 없습니다. IPv6 전용 인터페이스(프리뷰)는 VM을 만들 때만 지원됩니다.

IPv4 주소 세부정보

각 IPv4 전용 또는 이중 스택 네트워크 인터페이스는 기본 내부 IPv4 주소를 수신합니다. 각 인터페이스는 선택적으로 별칭 IP 범위와 외부 IPv4 주소를 지원합니다. 다음은 IPv4 사양 및 요구사항입니다.

  • 기본 내부 IPv4 주소: Compute Engine이 인터페이스의 서브넷에 있는 기본 IPv4 주소 범위에서 네트워크 인터페이스에 기본 내부 IPv4 주소를 할당합니다. 기본 내부 IPv4 주소는 DHCP에서 할당합니다.

    • 고정 내부 IPv4 주소를 구성하거나 커스텀 임시 내부 IPv4 주소를 지정하여 할당되는 기본 내부 IPv4 주소를 제어할 수 있습니다.

    • 각 네트워크 인터페이스에 고유한 기본 내부 IPv4 주소가 있어야 합니다. 즉, 각 인터페이스의 서브넷은 중복되지 않는 고유한 기본 IPv4 주소 범위를 사용해야 합니다.

  • 별칭 IP 범위: 원하는 경우 인터페이스에 하나 이상의 별칭 IP 범위를 할당할 수 있습니다. 각 별칭 IP 범위는 인터페이스 서브넷의 기본 IPv4 주소 범위 또는 보조 IPv4 주소 범위에서 가져올 수 있습니다.

    • 각 인터페이스의 별칭 IP 범위는 고유해야 합니다. 즉, 각 인터페이스 서브넷의 기본 보조 IPv4 주소 범위는 고유해야 하며 겹치면 안 됩니다.
  • 외부 IPv4 주소: 원하는 경우 인터페이스에 임시 또는 예약된 외부 IPv4 주소를 할당할 수 있습니다. Google Cloud 는 각 외부 IPv4 주소의 고유성을 보장합니다.

IPv6 주소 세부정보

Compute Engine은 각 이중 스택 또는 IPv6 전용 네트워크 인터페이스(프리뷰)에 인터페이스 서브넷의 /64 IPv6 주소 범위에서 /96 IPv6 주소 범위를 할당합니다.

  • /96 IPv6 주소 범위가 내부인지 외부인지 여부는 인터페이스 서브넷의 IPv6 액세스 유형에 따라 다릅니다. Google Cloud 는 각 내부 및 외부 IPv6 주소 범위의 고유성을 보장합니다. 자세한 내용은 IPv6 사양을 참고하세요.

    • 인스턴스에 내부 IPv6 주소 범위와 외부 IPv6 주소 범위가 모두 필요한 경우: 이중 스택 인터페이스 2개, IPv6 전용 인터페이스 2개 또는 이중 스택 인터페이스 1개와 IPv6 전용 인터페이스 1개를 구성해야 합니다. 한 인터페이스에서 사용하는 서브넷에는 외부 IPv6 주소 범위가 있어야 하고 다른 인터페이스에서 사용하는 서브넷에는 내부 IPv6 주소 범위가 있어야 합니다.
  • 첫 번째 IPv6 주소(/128)는 DHCP에 의해 인터페이스에 구성됩니다. 자세한 내용은 IPv6 주소 할당을 참고하세요.

  • 고정 내부 또는 외부 IPv6 주소 범위를 구성하여, 할당할 /96 IPv6 주소 범위를 제어할 수 있습니다. 내부 IPv6의 경우 맞춤 임시 내부 IPv6 주소를 지정할 수 있습니다.

네트워크 인터페이스의 최대 개수

대부분의 머신 유형에서 가상 네트워크 인터페이스 수는 2~10개의 vCPU 수로 확장됩니다. 다음은 예외입니다.

  • Compute Engine 베어메탈 인스턴스는 단일 vNIC를 지원합니다.

  • A3 및 A4 머신 시리즈의 최대 vNIC 수는 다릅니다. 자세한 내용은 가속기 최적화 머신 계열을 참고하세요.

다음 표에서 인스턴스 하나에 네트워크 인터페이스 몇 개를 연결할 수 있는지 확인하세요.

vCPU 개수 vNIC 개수
2개 이하 2
4 최대 4개
6 최대 6개
8 최대 8개
10개 이상 최대 10개

제품 상호작용

이 섹션에서는 멀티 NIC VM과 Google Cloud의 다른 제품 및 기능 간의 상호작용을 설명합니다.

공유 VPC

공유 VPC 호스트 또는 서비스 프로젝트의 다중 NIC VM의 서브넷 및 프로젝트 관계는 다음과 같습니다.

  • 공유 VPC 호스트 프로젝트에 있는 다중 NIC VM의 각 네트워크 인터페이스는 호스트 프로젝트의 공유 VPC 네트워크 서브넷을 사용해야 합니다.

  • 공유 VPC 서비스 프로젝트에 있는 다중 NIC VM의 각 네트워크 인터페이스는 다음 중 하나를 사용할 수 있습니다.

    • 서비스 프로젝트의 VPC 네트워크 서브넷입니다.
    • 호스트 프로젝트의 공유 VPC 네트워크의 서브넷입니다.

공유 VPC에 대한 자세한 내용은 다음을 참고하세요.

Compute Engine 내부 DNS

Compute Engine은 인스턴스의 nic0 네트워크 인터페이스의 기본 내부 IPv4 주소에 대해서만 내부 DNS 이름 A 및 PTR 레코드를 만듭니다. Compute Engine은 nic0과 다른 네트워크 인터페이스와 연결된 IPv4 또는 IPv6 주소의 내부 DNS 레코드를 생성하지 않습니다.

자세한 내용은 Compute Engine 내부 DNS를 참고하세요.

정적 경로

정적 경로네트워크 태그를 사용하여 특정 VM 인스턴스에 적용할 수 있습니다. 네트워크 태그가 인스턴스와 연결되면 태그가 인스턴스의 모든 네트워크 인터페이스에 적용됩니다. 따라서 인스턴스에 네트워크 태그를 추가하거나 인스턴스에서 네트워크 태그를 삭제하면 VM의 네트워크 인터페이스 전체에 적용되는 정적 경로가 변경될 수 있습니다.

부하 분산기

인스턴스 그룹 백엔드와 영역별 NEG 백엔드에는 다음과 같이 연결된 VPC 네트워크가 각각 있습니다.

  • 관리형 인스턴스 그룹(MIG)의 경우 인스턴스 그룹의 VPC 네트워크는 인스턴스 템플릿의 nic0 인터페이스에 할당된 VPC 네트워크입니다.

  • 비관리형 인스턴스 그룹의 경우 인스턴스 그룹의 VPC 네트워크는 사용자가 비관리형 인스턴스 그룹에 추가하는 첫 번째 VM 인스턴스의 nic0 네트워크 인터페이스에 사용되는 VPC 네트워크입니다.

다음 표에는 네트워크 인터페이스에 연결 또는 요청을 배포하는 것을 지원하는 백엔드가 나와 있습니다.

부하 분산기 인스턴스 그룹 GCE_VM_IP NEG GCE_VM_IP_PORT NEG
백엔드 서비스 기반 외부 패스 스루 네트워크 부하 분산기
백엔드 서비스가 VPC 네트워크에 연결되어 있지 않습니다. 자세한 내용은 백엔드 서비스 및 VPC 네트워크를 참고하세요.
nic0만 해당 모든 NIC 해당 사항 없음
내부 패스 스루 네트워크 부하 분산기
백엔드 서비스가 VPC 네트워크와 연결됩니다. 자세한 내용은 백엔드 서비스 네트워크 사양백엔드 서비스 네트워크 규칙을 참고하세요.
모든 NIC 모든 NIC 해당 사항 없음
외부 프록시 네트워크 부하 분산기
백엔드 서비스 및 네트워크 요구사항에 관한 자세한 내용은 백엔드 및 VPC 네트워크를 참고하세요.
nic0만 해당 해당 사항 없음 모든 NIC
내부 프록시 네트워크 부하 분산기
백엔드 서비스 및 네트워크 요구사항에 관한 자세한 내용은 백엔드 및 VPC 네트워크를 참고하세요.
nic0만 해당 해당 사항 없음 모든 NIC
외부 애플리케이션 부하 분산기
백엔드 서비스 및 네트워크 요구사항에 관한 자세한 내용은 백엔드 및 VPC 네트워크를 참고하세요.
nic0만 해당 해당 사항 없음 모든 NIC
내부 애플리케이션 부하 분산기
백엔드 서비스 및 네트워크 요구사항에 관한 자세한 내용은 백엔드 및 VPC 네트워크를 참고하세요.
nic0만 해당 해당 사항 없음 모든 NIC

대상 풀 기반 외부 패스 스루 네트워크 부하 분산기는 인스턴스 그룹 또는 NEG를 사용하지 않으며 nic0 네트워크 인터페이스로의 부하 분산만 지원합니다.

방화벽 규칙

계층식 방화벽 정책, 전역 네트워크 방화벽 정책, 리전 네트워크 방화벽 정책, VPC 방화벽 규칙의 방화벽 규칙 집합은 각 네트워크 인터페이스에 고유합니다. 네트워크 인터페이스에 적용되는 방화벽 규칙과 각 규칙의 소스를 확인하려면 VM 인터페이스에 유효한 방화벽 규칙 가져오기를 참고하세요.

네트워크 태그를 사용하여 방화벽 규칙의 범위를 특정 VM 인스턴스로 지정할 수 있습니다. 네트워크 태그가 인스턴스와 연결되면 태그가 인스턴스의 모든 네트워크 인터페이스에 적용됩니다. 따라서 인스턴스에 네트워크 태그를 추가하거나 인스턴스에서 네트워크 태그를 삭제하면 VM의 네트워크 인터페이스 전체에 적용되는 방화벽 규칙이 변경될 수 있습니다.

전역 네트워크 방화벽 정책 또는 리전 네트워크 방화벽 정책의 방화벽 규칙은 네트워크 인터페이스별로 적용되는 보안 태그를 지원합니다. 자세한 내용은 보안 태그와 네트워크 태그 비교를 참고하세요.

다음 단계