Censys 로그 수집

다음에서 지원:

이 문서에서는 Amazon S3를 사용하여 Censys 로그를 Google Security Operations에 수집하는 방법을 설명합니다. Censys는 API를 통해 포괄적인 공격 표면 관리 및 인터넷 인텔리전스를 제공합니다. 이 통합을 사용하면 Censys ASM에서 호스트 검색 이벤트, 위험 이벤트, 애셋 변경사항을 수집하여 분석 및 모니터링을 위해 Google SecOps로 전달할 수 있습니다. 파서는 원시 로그를 Google SecOps UDM을 준수하는 구조화된 형식으로 변환합니다. 원시 로그 메시지에서 필드를 추출하고, 데이터 유형 변환을 실행하고, 추출된 정보를 해당 UDM 필드에 매핑하여 추가 컨텍스트와 라벨로 데이터를 보강합니다.

시작하기 전에

다음 기본 요건이 충족되었는지 확인합니다.

  • Google SecOps 인스턴스
  • Censys ASM에 대한 액세스 권한 관리
  • AWS (S3, IAM, Lambda, EventBridge)에 대한 권한 액세스

Censys 기본 요건 (API 사용자 인증 정보) 수집

  1. app.censys.io에서 Censys ASM Console에 로그인합니다.
  2. 페이지 상단의 통합으로 이동합니다.
  3. API 키조직 ID를 복사하여 저장합니다.
  4. API 기본 URL(https://api.platform.censys.io)을 기록해 둡니다.

Google SecOps용 AWS S3 버킷 및 IAM 구성

  1. 이 사용자 가이드(버킷 만들기)에 따라 Amazon S3 버킷을 만듭니다.
  2. 나중에 참조할 수 있도록 버킷 이름리전을 저장합니다 (예: censys-logs).
  3. 이 사용자 가이드(IAM 사용자 만들기)에 따라 사용자를 만듭니다.
  4. 생성된 사용자를 선택합니다.
  5. 보안 사용자 인증 정보 탭을 선택합니다.
  6. 액세스 키 섹션에서 액세스 키 만들기를 클릭합니다.
  7. 사용 사례서드 파티 서비스를 선택합니다.
  8. 다음을 클릭합니다.
  9. 선택사항: 설명 태그를 추가합니다.
  10. 액세스 키 만들기를 클릭합니다.
  11. CSV 파일 다운로드를 클릭하여 나중에 사용할 수 있도록 액세스 키비밀 액세스 키를 저장합니다.
  12. 완료를 클릭합니다.
  13. 권한 탭을 선택합니다.
  14. 권한 정책 섹션에서 권한 추가를 클릭합니다.
  15. 권한 추가를 선택합니다.
  16. 정책 직접 연결을 선택합니다.
  17. AmazonS3FullAccess 정책을 검색하여 선택합니다.
  18. 다음을 클릭합니다.
  19. 권한 추가를 클릭합니다.

S3 업로드용 IAM 정책 및 역할 구성

  1. AWS 콘솔에서 IAM > 정책 > 정책 만들기 > JSON 탭으로 이동합니다.
  2. 다음 정책을 입력합니다.

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Sid": "AllowPutObjects",
          "Effect": "Allow",
          "Action": "s3:PutObject",
          "Resource": "arn:aws:s3:::censys-logs/*"
        },
        {
          "Sid": "AllowGetStateObject",
          "Effect": "Allow",
          "Action": "s3:GetObject",
          "Resource": "arn:aws:s3:::censys-logs/censys/state.json"
        }
      ]
    }
    
    • 다른 버킷 이름을 입력한 경우 censys-logs을 해당 이름으로 바꿉니다.
  3. 다음 > 정책 만들기를 클릭합니다.

  4. IAM > 역할 > 역할 생성 > AWS 서비스 > Lambda로 이동합니다.

  5. 새로 만든 정책과 AWSLambdaBasicExecutionRole 관리형 정책 (CloudWatch Logs 액세스용)을 연결합니다.

  6. 역할 이름을 censys-lambda-role로 지정하고 역할 만들기를 클릭합니다.

Lambda 함수 만들기

  1. AWS 콘솔에서 Lambda > 함수 > 함수 만들기로 이동합니다.
  2. 처음부터 작성을 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
설정
이름 censys-data-collector
런타임 Python 3.13
아키텍처 x86_64
실행 역할 censys-lambda-role
  1. 함수가 생성되면 코드 탭을 열고 스텁을 삭제하고 다음 코드를 입력합니다 (censys-data-collector.py).

    import json
    import boto3
    import urllib3
    import gzip
    import logging
    import os
    from datetime import datetime, timedelta, timezone
    from typing import Dict, List, Any, Optional
    from urllib.parse import urlencode
    
    # Configure logging
    logger = logging.getLogger()
    logger.setLevel(logging.INFO)
    
    # AWS S3 client
    s3_client = boto3.client('s3')
    # HTTP client
    http = urllib3.PoolManager()
    
    # Environment variables
    S3_BUCKET = os.environ['S3_BUCKET']
    S3_PREFIX = os.environ['S3_PREFIX']
    STATE_KEY = os.environ['STATE_KEY']
    CENSYS_API_KEY = os.environ['CENSYS_API_KEY']
    CENSYS_ORG_ID = os.environ['CENSYS_ORG_ID']
    API_BASE = os.environ.get('API_BASE', 'https://api.platform.censys.io')
    
    class CensysCollector:
        def __init__(self):
            self.headers = {
                'Authorization': f'Bearer {CENSYS_API_KEY}',
                'X-Organization-ID': CENSYS_ORG_ID,
                'Content-Type': 'application/json'
            }
    
        def get_last_collection_time(self) -> Optional[datetime]:
            """Get the last collection timestamp from S3 state file."""
            try:
                response = s3_client.get_object(Bucket=S3_BUCKET, Key=STATE_KEY)
                state = json.loads(response['Body'].read().decode('utf-8'))
                return datetime.fromisoformat(state.get('last_collection_time', '2024-01-01T00:00:00Z'))
            except Exception as e:
                logger.info(f"No state file found or error reading state: {e}")
                return datetime.now(timezone.utc) - timedelta(hours=1)
    
        def save_collection_time(self, collection_time: datetime):
            """Save the current collection timestamp to S3 state file."""
            state = {'last_collection_time': collection_time.strftime('%Y-%m-%dT%H:%M:%SZ')}
            s3_client.put_object(
                Bucket=S3_BUCKET,
                Key=STATE_KEY,
                Body=json.dumps(state),
                ContentType='application/json'
            )
    
        def collect_logbook_events(self, cursor: str = None) -> List[Dict[str, Any]]:
            """Collect logbook events from Censys ASM API using cursor-based pagination."""
            events = []
            url = f"{API_BASE}/v3/logbook"
    
            # Use cursor-based pagination as per Censys API documentation
            params = {}
            if cursor:
                params['cursor'] = cursor
    
            try:
                query_string = urlencode(params) if params else ''
                full_url = f"{url}?{query_string}" if query_string else url
    
                response = http.request('GET', full_url, headers=self.headers)
    
                if response.status != 200:
                    logger.error(f"API request failed with status {response.status}: {response.data}")
                    return []
    
                data = json.loads(response.data.decode('utf-8'))
                events.extend(data.get('logbook_entries', []))
    
                # Handle cursor-based pagination
                next_cursor = data.get('next_cursor')
                if next_cursor:
                    events.extend(self.collect_logbook_events(next_cursor))
    
                logger.info(f"Collected {len(events)} logbook events")
                return events
    
            except Exception as e:
                logger.error(f"Error collecting logbook events: {e}")
                return []
    
        def collect_risks_events(self) -> List[Dict[str, Any]]:
            """Collect risk events from Censys ASM API."""
            events = []
            url = f"{API_BASE}/v3/risks"
    
            try:
                response = http.request('GET', url, headers=self.headers)
    
                if response.status != 200:
                    logger.error(f"API request failed with status {response.status}: {response.data}")
                    return []
    
                data = json.loads(response.data.decode('utf-8'))
                events.extend(data.get('risks', []))
    
                logger.info(f"Collected {len(events)} risk events")
                return events
    
            except Exception as e:
                logger.error(f"Error collecting risk events: {e}")
                return []
    
        def save_events_to_s3(self, events: List[Dict[str, Any]], event_type: str):
            """Save events to S3 in compressed NDJSON format."""
            if not events:
                return
    
            timestamp = datetime.now(timezone.utc).strftime('%Y%m%d_%H%M%S')
            filename = f"{S3_PREFIX}{event_type}_{timestamp}.json.gz"
    
            try:
                # Convert events to newline-delimited JSON
                ndjson_content = 'n'.join(json.dumps(event, separators=(',', ':')) for event in events)
    
                # Compress with gzip
                gz_bytes = gzip.compress(ndjson_content.encode('utf-8'))
    
                s3_client.put_object(
                    Bucket=S3_BUCKET,
                    Key=filename,
                    Body=gz_bytes,
                    ContentType='application/gzip',
                    ContentEncoding='gzip'
                )
    
                logger.info(f"Saved {len(events)} {event_type} events to {filename}")
    
            except Exception as e:
                logger.error(f"Error saving {event_type} events to S3: {e}")
                raise
    
    def lambda_handler(event, context):
        """AWS Lambda handler function."""
        try:
            collector = CensysCollector()
    
            # Get last collection time for cursor state management
            last_collection_time = collector.get_last_collection_time()
            current_time = datetime.now(timezone.utc)
    
            logger.info(f"Collecting events since {last_collection_time}")
    
            # Collect different types of events
            logbook_events = collector.collect_logbook_events()
            risk_events = collector.collect_risks_events()
    
            # Save events to S3
            collector.save_events_to_s3(logbook_events, 'logbook')
            collector.save_events_to_s3(risk_events, 'risks')
    
            # Update state
            collector.save_collection_time(current_time)
    
            return {
                'statusCode': 200,
                'body': json.dumps({
                    'message': 'Censys data collection completed successfully',
                    'logbook_events': len(logbook_events),
                    'risk_events': len(risk_events),
                    'collection_time': current_time.strftime('%Y-%m-%dT%H:%M:%SZ')
                })
            }
    
        except Exception as e:
            logger.error(f"Lambda execution failed: {str(e)}")
            return {
                'statusCode': 500,
                'body': json.dumps({
                    'error': str(e)
                })
            }
    
  2. 구성 > 환경 변수 > 수정 > 새 환경 변수 추가로 이동합니다.

  3. 다음 환경 변수를 입력하고 값으로 바꿉니다.

    예시 값
    S3_BUCKET censys-logs
    S3_PREFIX censys/
    STATE_KEY censys/state.json
    CENSYS_API_KEY <your-censys-api-key>
    CENSYS_ORG_ID <your-organization-id>
    API_BASE https://api.platform.censys.io
  4. 함수가 생성되면 해당 페이지에 머무르거나 Lambda > 함수 > your-function을 엽니다.

  5. 구성 탭을 선택합니다.

  6. 일반 구성 패널에서 수정을 클릭합니다.

  7. 제한 시간5분 (300초)으로 변경하고 저장을 클릭합니다.

EventBridge 일정 만들기

  1. Amazon EventBridge > 스케줄러 > 일정 만들기로 이동합니다.
  2. 다음 구성 세부정보를 제공합니다.
    • 반복 일정: 요율 (1 hour)
    • 타겟: Lambda 함수 censys-data-collector
    • 이름: censys-data-collector-1h.
  3. 일정 만들기를 클릭합니다.

선택사항: Google SecOps용 읽기 전용 IAM 사용자 및 키 만들기

  1. AWS 콘솔에서 IAM > 사용자 > 사용자 추가로 이동합니다.
  2. Add users를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 사용자: secops-reader
    • 액세스 유형: 액세스 키 — 프로그래매틱 액세스
  4. 사용자 만들기를 클릭합니다.
  5. 최소 읽기 정책 (맞춤) 연결: 사용자 > secops-reader > 권한 > 권한 추가 > 정책 직접 연결 > 정책 만들기
  6. JSON 편집기에서 다음 정책을 입력합니다.

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Effect": "Allow",
          "Action": ["s3:GetObject"],
          "Resource": "arn:aws:s3:::censys-logs/*"
        },
        {
          "Effect": "Allow",
          "Action": ["s3:ListBucket"],
          "Resource": "arn:aws:s3:::censys-logs"
        }
      ]
    }
    
  7. 이름을 secops-reader-policy로 설정합니다.

  8. 정책 만들기 > 검색/선택 > 다음 > 권한 추가로 이동합니다.

  9. 보안 사용자 인증 정보> 액세스 키> 액세스 키 만들기로 이동합니다.

  10. CSV를 다운로드합니다 (이러한 값은 피드에 입력됨).

Censys 로그를 수집하도록 Google SecOps에서 피드 구성

  1. SIEM 설정> 피드로 이동합니다.
  2. + 새 피드 추가를 클릭합니다.
  3. 피드 이름 필드에 피드 이름을 입력합니다 (예: Censys logs).
  4. 소스 유형으로 Amazon S3 V2를 선택합니다.
  5. 로그 유형으로 CENSYS를 선택합니다.
  6. 다음을 클릭합니다.
  7. 다음 입력 파라미터의 값을 지정합니다.
    • S3 URI: s3://censys-logs/censys/
    • 소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.
    • 최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.
    • 액세스 키 ID: S3 버킷에 대한 액세스 권한이 있는 사용자 액세스 키입니다.
    • 보안 비밀 액세스 키: S3 버킷에 액세스할 수 있는 사용자 보안 비밀 키입니다.
    • 애셋 네임스페이스: 애셋 네임스페이스입니다.
    • 수집 라벨: 이 피드의 이벤트에 적용된 라벨입니다.
  8. 다음을 클릭합니다.
  9. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

UDM 매핑 테이블

로그 필드 UDM 매핑 논리
assetId read_only_udm.principal.asset.hostname assetId 필드가 IP 주소가 아닌 경우 principal.asset.hostname에 매핑됩니다.
assetId read_only_udm.principal.asset.ip assetId 필드가 IP 주소인 경우 principal.asset.ip에 매핑됩니다.
assetId read_only_udm.principal.hostname assetId 필드가 IP 주소가 아닌 경우 principal.hostname에 매핑됩니다.
assetId read_only_udm.principal.ip assetId 필드가 IP 주소인 경우 principal.ip에 매핑됩니다.
associatedAt read_only_udm.security_result.detection_fields.value associatedAt 필드가 security_result.detection_fields.value에 매핑됩니다.
autonomousSystem.asn read_only_udm.additional.fields.value.string_value autonomousSystem.asn 필드가 문자열로 변환되고 키가 'autonomousSystem_asn'인 additional.fields.value.string_value에 매핑됩니다.
autonomousSystem.bgpPrefix read_only_udm.additional.fields.value.string_value autonomousSystem.bgpPrefix 필드는 키가 'autonomousSystem_bgpPrefix'인 additional.fields.value.string_value에 매핑됩니다.
배너 read_only_udm.principal.resource.attribute.labels.value 배너 필드는 키가 'banner'인 principal.resource.attribute.labels.value에 매핑됩니다.
클라우드 read_only_udm.metadata.vendor_name cloud 필드가 metadata.vendor_name에 매핑됩니다.
comments.refUrl read_only_udm.network.http.referral_url comments.refUrl 필드가 network.http.referral_url에 매핑됩니다.
data.cve read_only_udm.additional.fields.value.string_value data.cve 필드가 키 'data_cve'를 사용하여 additional.fields.value.string_value에 매핑됩니다.
data.cvss read_only_udm.additional.fields.value.string_value data.cvss 필드가 키 'data_cvss'를 사용하여 additional.fields.value.string_value에 매핑됩니다.
data.ipAddress read_only_udm.principal.asset.ip data.ipAddress 필드가 assetId 필드와 같지 않으면 principal.asset.ip에 매핑됩니다.
data.ipAddress read_only_udm.principal.ip data.ipAddress 필드가 assetId 필드와 같지 않으면 principal.ip에 매핑됩니다.
data.location.city read_only_udm.principal.location.city location.city 필드가 비어 있으면 data.location.city 필드가 principal.location.city에 매핑됩니다.
data.location.countryCode read_only_udm.principal.location.country_or_region location.country 필드가 비어 있으면 data.location.countryCode 필드가 principal.location.country_or_region에 매핑됩니다.
data.location.latitude read_only_udm.principal.location.region_coordinates.latitude location.coordinates.latitude 및 location.geoCoordinates.latitude 필드가 비어 있으면 data.location.latitude 필드가 부동 소수점으로 변환되고 principal.location.region_coordinates.latitude에 매핑됩니다.
data.location.longitude read_only_udm.principal.location.region_coordinates.longitude location.coordinates.longitude 및 location.geoCoordinates.longitude 필드가 비어 있으면 data.location.longitude 필드가 부동 소수점으로 변환되고 principal.location.region_coordinates.longitude에 매핑됩니다.
data.location.province read_only_udm.principal.location.state location.province 필드가 비어 있으면 data.location.province 필드가 principal.location.state에 매핑됩니다.
data.mailServers read_only_udm.additional.fields.value.list_value.values.string_value data.mailServers 배열의 각 요소는 키가 'Mail Servers'이고 value.list_value.values.string_value가 요소 값으로 설정된 별도의 additional.fields 항목에 매핑됩니다.
data.names.forwardDns[].name read_only_udm.network.dns.questions.name data.names.forwardDns 배열의 각 요소는 name 필드가 요소의 name 필드로 설정된 별도의 network.dns.questions 항목에 매핑됩니다.
data.nameServers read_only_udm.additional.fields.value.list_value.values.string_value data.nameServers 배열의 각 요소는 키가 'Name nameServers'이고 value.list_value.values.string_value가 요소 값으로 설정된 별도의 additional.fields 항목에 매핑됩니다.
data.protocols[].transportProtocol read_only_udm.network.ip_protocol data.protocols[].transportProtocol 필드가 TCP, EIGRP, ESP, ETHERIP, GRE, ICMP, IGMP, IP6IN4, PIM, UDP 또는 VRRP 중 하나인 경우 network.ip_protocol에 매핑됩니다.
data.protocols[].transportProtocol read_only_udm.principal.resource.attribute.labels.value data.protocols[].transportProtocol 필드가 'data_protocols {index}' 키와 함께 principal.resource.attribute.labels.value에 매핑됩니다.
http.request.headers[].key, http.request.headers[].value.headers.0 read_only_udm.network.http.user_agent http.request.headers[].key 필드가 'User-Agent'인 경우 해당 http.request.headers[].value.headers.0 필드가 network.http.user_agent에 매핑됩니다.
http.request.headers[].key, http.request.headers[].value.headers.0 read_only_udm.network.http.parsed_user_agent http.request.headers[].key 필드가 'User-Agent'인 경우 해당 http.request.headers[].value.headers.0 필드가 사용자 에이전트 문자열로 파싱되고 network.http.parsed_user_agent에 매핑됩니다.
http.request.headers[].key, http.request.headers[].value.headers.0 read_only_udm.principal.resource.attribute.labels.key, read_only_udm.principal.resource.attribute.labels.value http.request.headers 배열의 각 요소에 대해 key 필드는 principal.resource.attribute.labels.key에 매핑되고 value.headers.0 필드는 principal.resource.attribute.labels.value에 매핑됩니다.
http.request.uri read_only_udm.principal.asset.hostname http.request.uri 필드의 호스트 이름 부분이 추출되어 principal.asset.hostname에 매핑됩니다.
http.request.uri read_only_udm.principal.hostname http.request.uri 필드의 호스트 이름 부분이 추출되어 principal.hostname에 매핑됩니다.
http.response.body read_only_udm.principal.resource.attribute.labels.value http.response.body 필드가 키 'http_response_body'와 함께 principal.resource.attribute.labels.value에 매핑됩니다.
http.response.headers[].key, http.response.headers[].value.headers.0 read_only_udm.target.hostname http.response.headers[].key 필드가 'Server'인 경우 해당 http.response.headers[].value.headers.0 필드가 target.hostname에 매핑됩니다.
http.response.headers[].key, http.response.headers[].value.headers.0 read_only_udm.principal.resource.attribute.labels.key, read_only_udm.principal.resource.attribute.labels.value http.response.headers 배열의 각 요소에 대해 key 필드는 principal.resource.attribute.labels.key에 매핑되고 value.headers.0 필드는 principal.resource.attribute.labels.value에 매핑됩니다.
http.response.statusCode read_only_udm.network.http.response_code http.response.statusCode 필드가 정수로 변환되고 network.http.response_code에 매핑됩니다.
ip read_only_udm.target.asset.ip ip 필드가 target.asset.ip에 매핑됩니다.
ip read_only_udm.target.ip ip 필드가 target.ip에 매핑됩니다.
isSeed read_only_udm.additional.fields.value.string_value isSeed 필드가 문자열로 변환되고 키가 'isSeed'인 additional.fields.value.string_value에 매핑됩니다.
location.city read_only_udm.principal.location.city location.city 필드가 principal.location.city에 매핑됩니다.
location.continent read_only_udm.additional.fields.value.string_value location.continent 필드는 키가 'location_continent'인 additional.fields.value.string_value에 매핑됩니다.
location.coordinates.latitude read_only_udm.principal.location.region_coordinates.latitude location.coordinates.latitude 필드가 부동 소수점으로 변환되고 principal.location.region_coordinates.latitude에 매핑됩니다.
location.coordinates.longitude read_only_udm.principal.location.region_coordinates.longitude location.coordinates.longitude 필드가 float로 변환되고 principal.location.region_coordinates.longitude에 매핑됩니다.
location.country read_only_udm.principal.location.country_or_region location.country 필드가 principal.location.country_or_region에 매핑됩니다.
location.geoCoordinates.latitude read_only_udm.principal.location.region_coordinates.latitude location.coordinates.latitude 필드가 비어 있으면 location.geoCoordinates.latitude 필드가 float로 변환되고 principal.location.region_coordinates.latitude에 매핑됩니다.
location.geoCoordinates.longitude read_only_udm.principal.location.region_coordinates.longitude location.coordinates.longitude 필드가 비어 있으면 location.geoCoordinates.longitude 필드가 float로 변환되고 principal.location.region_coordinates.longitude에 매핑됩니다.
location.postalCode read_only_udm.additional.fields.value.string_value location.postalCode 필드는 키가 '우편번호'인 additional.fields.value.string_value에 매핑됩니다.
location.province read_only_udm.principal.location.state location.province 필드가 principal.location.state에 매핑됩니다.
작업 read_only_udm.security_result.action_details operation 필드는 security_result.action_details에 매핑됩니다.
perspectiveId read_only_udm.principal.group.product_object_id perspectiveId 필드가 principal.group.product_object_id에 매핑됩니다.
포트 read_only_udm.principal.port 포트 필드가 정수로 변환되고 principal.port에 매핑됩니다.
risks[].severity, risks[].title read_only_udm.security_result.category_details risks[].severity 필드가 risks[].title 필드와 연결되어 security_result.category_details에 매핑됩니다.
serviceName read_only_udm.network.application_protocol serviceName 필드가 'HTTP' 또는 'HTTPS'인 경우 network.application_protocol에 매핑됩니다.
sourceIp read_only_udm.principal.asset.ip sourceIp 필드가 principal.asset.ip에 매핑됩니다.
sourceIp read_only_udm.principal.ip sourceIp 필드가 principal.ip에 매핑됩니다.
타임스탬프 read_only_udm.metadata.event_timestamp 타임스탬프 필드는 타임스탬프로 파싱되고 metadata.event_timestamp에 매핑됩니다.
transportFingerprint.id read_only_udm.metadata.product_log_id transportFingerprint.id 필드가 문자열로 변환되고 metadata.product_log_id에 매핑됩니다.
transportFingerprint.raw read_only_udm.additional.fields.value.string_value transportFingerprint.raw 필드가 키 'transportFingerprint_raw'를 사용하여 additional.fields.value.string_value에 매핑됩니다.
유형 read_only_udm.metadata.product_event_type type 필드가 metadata.product_event_type에 매핑됩니다.
- read_only_udm.metadata.product_name 'CENSYS_ASM' 값이 metadata.product_name에 할당됩니다.
- read_only_udm.metadata.vendor_name 'CENSYS' 값이 metadata.vendor_name에 할당됩니다.
- read_only_udm.metadata.event_type 이벤트 유형은 특정 필드의 존재 여부에 따라 결정됩니다. has_princ_machine_id 및 has_target_machine이 true이고 has_network_flow가 false인 경우 NETWORK_CONNECTION, has_network_flow가 true인 경우 NETWORK_DNS, has_princ_machine_id가 true인 경우 STATUS_UPDATE, 그 외의 경우 GENERIC_EVENT입니다.

도움이 더 필요하신가요? 커뮤니티 회원 및 Google SecOps 전문가로부터 답변을 받으세요.