Recopila registros de Censys
En este documento, se explica cómo transferir registros de Censys a Google Security Operations con Amazon S3. Censys proporciona administración integral de la superficie de ataque e inteligencia de Internet a través de su API. Esta integración te permite recopilar eventos de detección de hosts, eventos de riesgo y cambios de activos de Censys ASM, y reenviarlos a Google SecOps para su análisis y supervisión. El analizador transforma los registros sin procesar en un formato estructurado que se ajusta al UDM de SecOps de Google. Extrae campos del mensaje de registro sin procesar, realiza conversiones de tipos de datos y asigna la información extraída a los campos correspondientes del UDM, lo que enriquece los datos con contexto y etiquetas adicionales.
Antes de comenzar
Asegúrate de cumplir con los siguientes requisitos previos:
- Instancia de Google SecOps
- Acceso privilegiado a Censys ASM
- Acceso con privilegios a AWS (S3, IAM, Lambda, EventBridge)
Recopila los requisitos previos de Censys (credenciales de API)
- Accede a la consola de Censys ASM en
app.censys.io
. - Ve a Integraciones en la parte superior de la página.
- Copia y guarda tu clave de API y tu ID de organización.
- Toma nota de la URL base de la API:
https://api.platform.censys.io
Configura el bucket de AWS S3 y el IAM para Google SecOps
- Crea un bucket de Amazon S3 siguiendo esta guía del usuario: Crea un bucket
- Guarda el Nombre y la Región del bucket para futuras referencias (por ejemplo,
censys-logs
). - Crea un usuario siguiendo esta guía del usuario: Cómo crear un usuario de IAM.
- Selecciona el usuario creado.
- Selecciona la pestaña Credenciales de seguridad.
- Haz clic en Crear clave de acceso en la sección Claves de acceso.
- Selecciona Servicio de terceros como el Caso de uso.
- Haz clic en Siguiente.
- Opcional: Agrega una etiqueta de descripción.
- Haz clic en Crear clave de acceso.
- Haz clic en Descargar archivo CSV para guardar la clave de acceso y la clave de acceso secreta para usarlas más adelante.
- Haz clic en Listo.
- Selecciona la pestaña Permisos.
- Haz clic en Agregar permisos en la sección Políticas de permisos.
- Selecciona Agregar permisos.
- Selecciona Adjuntar políticas directamente.
- Busca y selecciona la política AmazonS3FullAccess.
- Haz clic en Siguiente.
- Haz clic en Agregar permisos.
Configura la política y el rol de IAM para las cargas de S3
- En la consola de AWS, ve a IAM > Políticas > Crear política > pestaña JSON.
Ingresa la siguiente política:
{ "Version": "2012-10-17", "Statement": [ { "Sid": "AllowPutObjects", "Effect": "Allow", "Action": "s3:PutObject", "Resource": "arn:aws:s3:::censys-logs/*" }, { "Sid": "AllowGetStateObject", "Effect": "Allow", "Action": "s3:GetObject", "Resource": "arn:aws:s3:::censys-logs/censys/state.json" } ] }
- Reemplaza
censys-logs
si ingresaste un nombre de bucket diferente.
- Reemplaza
Haz clic en Siguiente > Crear política.
Ve a IAM > Roles > Crear rol > Servicio de AWS > Lambda.
Adjunta la política recién creada y la política administrada AWSLambdaBasicExecutionRole (para el acceso a CloudWatch Logs).
Asigna el nombre
censys-lambda-role
al rol y haz clic en Crear rol.
Crea la función Lambda
- En la consola de AWS, ve a Lambda > Functions > Create function.
- Haz clic en Crear desde cero.
- Proporciona los siguientes detalles de configuración:
Configuración | Valor |
---|---|
Nombre | censys-data-collector |
Tiempo de ejecución | Python 3.13 |
Arquitectura | x86_64 |
Rol de ejecución | censys-lambda-role |
Después de crear la función, abre la pestaña Code, borra el código auxiliar y, luego, ingresa el siguiente código (
censys-data-collector.py
):import json import boto3 import urllib3 import gzip import logging import os from datetime import datetime, timedelta, timezone from typing import Dict, List, Any, Optional from urllib.parse import urlencode # Configure logging logger = logging.getLogger() logger.setLevel(logging.INFO) # AWS S3 client s3_client = boto3.client('s3') # HTTP client http = urllib3.PoolManager() # Environment variables S3_BUCKET = os.environ['S3_BUCKET'] S3_PREFIX = os.environ['S3_PREFIX'] STATE_KEY = os.environ['STATE_KEY'] CENSYS_API_KEY = os.environ['CENSYS_API_KEY'] CENSYS_ORG_ID = os.environ['CENSYS_ORG_ID'] API_BASE = os.environ.get('API_BASE', 'https://api.platform.censys.io') class CensysCollector: def __init__(self): self.headers = { 'Authorization': f'Bearer {CENSYS_API_KEY}', 'X-Organization-ID': CENSYS_ORG_ID, 'Content-Type': 'application/json' } def get_last_collection_time(self) -> Optional[datetime]: """Get the last collection timestamp from S3 state file.""" try: response = s3_client.get_object(Bucket=S3_BUCKET, Key=STATE_KEY) state = json.loads(response['Body'].read().decode('utf-8')) return datetime.fromisoformat(state.get('last_collection_time', '2024-01-01T00:00:00Z')) except Exception as e: logger.info(f"No state file found or error reading state: {e}") return datetime.now(timezone.utc) - timedelta(hours=1) def save_collection_time(self, collection_time: datetime): """Save the current collection timestamp to S3 state file.""" state = {'last_collection_time': collection_time.strftime('%Y-%m-%dT%H:%M:%SZ')} s3_client.put_object( Bucket=S3_BUCKET, Key=STATE_KEY, Body=json.dumps(state), ContentType='application/json' ) def collect_logbook_events(self, cursor: str = None) -> List[Dict[str, Any]]: """Collect logbook events from Censys ASM API using cursor-based pagination.""" events = [] url = f"{API_BASE}/v3/logbook" # Use cursor-based pagination as per Censys API documentation params = {} if cursor: params['cursor'] = cursor try: query_string = urlencode(params) if params else '' full_url = f"{url}?{query_string}" if query_string else url response = http.request('GET', full_url, headers=self.headers) if response.status != 200: logger.error(f"API request failed with status {response.status}: {response.data}") return [] data = json.loads(response.data.decode('utf-8')) events.extend(data.get('logbook_entries', [])) # Handle cursor-based pagination next_cursor = data.get('next_cursor') if next_cursor: events.extend(self.collect_logbook_events(next_cursor)) logger.info(f"Collected {len(events)} logbook events") return events except Exception as e: logger.error(f"Error collecting logbook events: {e}") return [] def collect_risks_events(self) -> List[Dict[str, Any]]: """Collect risk events from Censys ASM API.""" events = [] url = f"{API_BASE}/v3/risks" try: response = http.request('GET', url, headers=self.headers) if response.status != 200: logger.error(f"API request failed with status {response.status}: {response.data}") return [] data = json.loads(response.data.decode('utf-8')) events.extend(data.get('risks', [])) logger.info(f"Collected {len(events)} risk events") return events except Exception as e: logger.error(f"Error collecting risk events: {e}") return [] def save_events_to_s3(self, events: List[Dict[str, Any]], event_type: str): """Save events to S3 in compressed NDJSON format.""" if not events: return timestamp = datetime.now(timezone.utc).strftime('%Y%m%d_%H%M%S') filename = f"{S3_PREFIX}{event_type}_{timestamp}.json.gz" try: # Convert events to newline-delimited JSON ndjson_content = 'n'.join(json.dumps(event, separators=(',', ':')) for event in events) # Compress with gzip gz_bytes = gzip.compress(ndjson_content.encode('utf-8')) s3_client.put_object( Bucket=S3_BUCKET, Key=filename, Body=gz_bytes, ContentType='application/gzip', ContentEncoding='gzip' ) logger.info(f"Saved {len(events)} {event_type} events to {filename}") except Exception as e: logger.error(f"Error saving {event_type} events to S3: {e}") raise def lambda_handler(event, context): """AWS Lambda handler function.""" try: collector = CensysCollector() # Get last collection time for cursor state management last_collection_time = collector.get_last_collection_time() current_time = datetime.now(timezone.utc) logger.info(f"Collecting events since {last_collection_time}") # Collect different types of events logbook_events = collector.collect_logbook_events() risk_events = collector.collect_risks_events() # Save events to S3 collector.save_events_to_s3(logbook_events, 'logbook') collector.save_events_to_s3(risk_events, 'risks') # Update state collector.save_collection_time(current_time) return { 'statusCode': 200, 'body': json.dumps({ 'message': 'Censys data collection completed successfully', 'logbook_events': len(logbook_events), 'risk_events': len(risk_events), 'collection_time': current_time.strftime('%Y-%m-%dT%H:%M:%SZ') }) } except Exception as e: logger.error(f"Lambda execution failed: {str(e)}") return { 'statusCode': 500, 'body': json.dumps({ 'error': str(e) }) }
Ve a Configuración > Variables de entorno > Editar > Agregar nueva variable de entorno.
Ingresa las siguientes variables de entorno y reemplázalas por tus valores:
Clave Valor de ejemplo S3_BUCKET
censys-logs
S3_PREFIX
censys/
STATE_KEY
censys/state.json
CENSYS_API_KEY
<your-censys-api-key>
CENSYS_ORG_ID
<your-organization-id>
API_BASE
https://api.platform.censys.io
Después de crear la función, permanece en su página (o abre Lambda > Funciones > tu-función).
Selecciona la pestaña Configuración.
En el panel Configuración general, haz clic en Editar.
Cambia Tiempo de espera a 5 minutos (300 segundos) y haz clic en Guardar.
Crea una programación de EventBridge
- Ve a Amazon EventBridge > Scheduler > Create schedule.
- Proporciona los siguientes detalles de configuración:
- Programación recurrente: Frecuencia (
1 hour
). - Destino: Tu función Lambda
censys-data-collector
. - Nombre:
censys-data-collector-1h
.
- Programación recurrente: Frecuencia (
- Haz clic en Crear programación.
Opcional: Crea un usuario y claves de IAM de solo lectura para Google SecOps
- En la consola de AWS, ve a IAM > Usuarios > Agregar usuarios.
- Haz clic en Agregar usuarios.
- Proporciona los siguientes detalles de configuración:
- Usuario:
secops-reader
. - Tipo de acceso: Clave de acceso: Acceso programático
- Usuario:
- Haz clic en Crear usuario.
- Adjunta la política de lectura mínima (personalizada): Usuarios > secops-reader > Permisos > Agregar permisos > Adjuntar políticas directamente > Crear política.
En el editor de JSON, ingresa la siguiente política:
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["s3:GetObject"], "Resource": "arn:aws:s3:::censys-logs/*" }, { "Effect": "Allow", "Action": ["s3:ListBucket"], "Resource": "arn:aws:s3:::censys-logs" } ] }
Configura el nombre como
secops-reader-policy
.Ve a Crear política > busca o selecciona > Siguiente > Agregar permisos.
Ve a Credenciales de seguridad > Claves de acceso > Crear clave de acceso.
Descarga el archivo CSV (estos valores se ingresan en el feed).
Configura un feed en Google SecOps para transferir registros de Censys
- Ve a Configuración de SIEM > Feeds.
- Haz clic en + Agregar feed nuevo.
- En el campo Nombre del feed, ingresa un nombre para el feed (por ejemplo,
Censys logs
). - Selecciona Amazon S3 V2 como el Tipo de fuente.
- Selecciona CENSYS como el Tipo de registro.
- Haz clic en Siguiente.
- Especifica valores para los siguientes parámetros de entrada:
- URI de S3:
s3://censys-logs/censys/
- Opciones de borrado de la fuente: Selecciona la opción de borrado según tu preferencia.
- Antigüedad máxima del archivo: Incluye los archivos modificados en la cantidad de días especificada. El valor predeterminado es de 180 días.
- ID de clave de acceso: Clave de acceso del usuario con acceso al bucket de S3.
- Clave de acceso secreta: Clave secreta del usuario con acceso al bucket de S3.
- Espacio de nombres del recurso: Es el espacio de nombres del recurso.
- Etiquetas de transferencia: Es la etiqueta que se aplica a los eventos de este feed.
- URI de S3:
- Haz clic en Siguiente.
- Revisa la nueva configuración del feed en la pantalla Finalizar y, luego, haz clic en Enviar.
Tabla de asignación de UDM
Campo de registro | Asignación de UDM | Lógica |
---|---|---|
assetId | read_only_udm.principal.asset.hostname | Si el campo assetId no es una dirección IP, se asigna a principal.asset.hostname. |
assetId | read_only_udm.principal.asset.ip | Si el campo assetId es una dirección IP, se asigna a principal.asset.ip. |
assetId | read_only_udm.principal.hostname | Si el campo assetId no es una dirección IP, se asigna a principal.hostname. |
assetId | read_only_udm.principal.ip | Si el campo assetId es una dirección IP, se asigna a principal.ip. |
associatedAt | read_only_udm.security_result.detection_fields.value | El campo associatedAt se asigna a security_result.detection_fields.value. |
autonomousSystem.asn | read_only_udm.additional.fields.value.string_value | El campo autonomousSystem.asn se convierte en una cadena y se asigna a additional.fields.value.string_value con la clave "autonomousSystem_asn". |
autonomousSystem.bgpPrefix | read_only_udm.additional.fields.value.string_value | El campo autonomousSystem.bgpPrefix se asigna a additional.fields.value.string_value con la clave "autonomousSystem_bgpPrefix". |
banner | read_only_udm.principal.resource.attribute.labels.value | El campo del banner se asigna a principal.resource.attribute.labels.value con la clave "banner". |
nube | read_only_udm.metadata.vendor_name | El campo de la nube se asigna a metadata.vendor_name. |
comments.refUrl | read_only_udm.network.http.referral_url | El campo comments.refUrl se asigna a network.http.referral_url. |
data.cve | read_only_udm.additional.fields.value.string_value | El campo data.cve se asigna a additional.fields.value.string_value con la clave "data_cve". |
data.cvss | read_only_udm.additional.fields.value.string_value | El campo data.cvss se asigna a additional.fields.value.string_value con la clave "data_cvss". |
data.ipAddress | read_only_udm.principal.asset.ip | Si el campo data.ipAddress no es igual al campo assetId, se asigna a principal.asset.ip. |
data.ipAddress | read_only_udm.principal.ip | Si el campo data.ipAddress no es igual al campo assetId, se asigna a principal.ip. |
data.location.city | read_only_udm.principal.location.city | Si el campo location.city está vacío, el campo data.location.city se asigna a principal.location.city. |
data.location.countryCode | read_only_udm.principal.location.country_or_region | Si el campo location.country está vacío, el campo data.location.countryCode se asigna a principal.location.country_or_region. |
data.location.latitude | read_only_udm.principal.location.region_coordinates.latitude | Si los campos location.coordinates.latitude y location.geoCoordinates.latitude están vacíos, el campo data.location.latitude se convierte en un número de punto flotante y se asigna a principal.location.region_coordinates.latitude. |
data.location.longitude | read_only_udm.principal.location.region_coordinates.longitude | Si los campos location.coordinates.longitude y location.geoCoordinates.longitude están vacíos, el campo data.location.longitude se convierte en un número de punto flotante y se asigna a principal.location.region_coordinates.longitude. |
data.location.province | read_only_udm.principal.location.state | Si el campo location.province está vacío, el campo data.location.province se asigna a principal.location.state. |
data.mailServers | read_only_udm.additional.fields.value.list_value.values.string_value | Cada elemento del array data.mailServers se asigna a una entrada adicional.fields independiente con la clave "Servidores de correo" y el valor value.list_value.values.string_value establecido en el valor del elemento. |
data.names.forwardDns[].name | read_only_udm.network.dns.questions.name | Cada elemento del array data.names.forwardDns se asigna a una entrada network.dns.questions independiente con el campo name establecido en el campo name del elemento. |
data.nameServers | read_only_udm.additional.fields.value.list_value.values.string_value | Cada elemento del array data.nameServers se asigna a una entrada adicional independiente de additional.fields con la clave "Name nameServers" y el valor value.list_value.values.string_value establecido en el valor del elemento. |
data.protocols[].transportProtocol | read_only_udm.network.ip_protocol | Si el campo data.protocols[].transportProtocol es uno de los siguientes: TCP, EIGRP, ESP, ETHERIP, GRE, ICMP, IGMP, IP6IN4, PIM, UDP o VRRP, se asigna a network.ip_protocol. |
data.protocols[].transportProtocol | read_only_udm.principal.resource.attribute.labels.value | El campo data.protocols[].transportProtocol se asigna a principal.resource.attribute.labels.value con la clave "data_protocols {index}". |
http.request.headers[].key, http.request.headers[].value.headers.0 | read_only_udm.network.http.user_agent | Si el campo http.request.headers[].key es "User-Agent", el campo http.request.headers[].value.headers.0 correspondiente se asigna a network.http.user_agent. |
http.request.headers[].key, http.request.headers[].value.headers.0 | read_only_udm.network.http.parsed_user_agent | Si el campo http.request.headers[].key es "User-Agent", el campo http.request.headers[].value.headers.0 correspondiente se analiza como una cadena de usuario-agente y se asigna a network.http.parsed_user_agent. |
http.request.headers[].key, http.request.headers[].value.headers.0 | read_only_udm.principal.resource.attribute.labels.key, read_only_udm.principal.resource.attribute.labels.value | Para cada elemento del array http.request.headers, el campo key se asigna a principal.resource.attribute.labels.key y el campo value.headers.0 se asigna a principal.resource.attribute.labels.value. |
http.request.uri | read_only_udm.principal.asset.hostname | La parte del nombre de host del campo http.request.uri se extrae y se asigna a principal.asset.hostname. |
http.request.uri | read_only_udm.principal.hostname | La parte del nombre de host del campo http.request.uri se extrae y se asigna a principal.hostname. |
http.response.body | read_only_udm.principal.resource.attribute.labels.value | El campo http.response.body se asigna a principal.resource.attribute.labels.value con la clave "http_response_body". |
http.response.headers[].key, http.response.headers[].value.headers.0 | read_only_udm.target.hostname | Si el campo http.response.headers[].key es "Server", el campo http.response.headers[].value.headers.0 correspondiente se asigna a target.hostname. |
http.response.headers[].key, http.response.headers[].value.headers.0 | read_only_udm.principal.resource.attribute.labels.key, read_only_udm.principal.resource.attribute.labels.value | Para cada elemento del array http.response.headers, el campo key se asigna a principal.resource.attribute.labels.key y el campo value.headers.0 se asigna a principal.resource.attribute.labels.value. |
http.response.statusCode | read_only_udm.network.http.response_code | El campo http.response.statusCode se convierte en un número entero y se asigna a network.http.response_code. |
ip | read_only_udm.target.asset.ip | El campo ip se asigna a target.asset.ip. |
ip | read_only_udm.target.ip | El campo ip se asigna a target.ip. |
isSeed | read_only_udm.additional.fields.value.string_value | El campo isSeed se convierte en una cadena y se asigna a additional.fields.value.string_value con la clave "isSeed". |
location.city | read_only_udm.principal.location.city | El campo location.city se asigna a principal.location.city. |
location.continent | read_only_udm.additional.fields.value.string_value | El campo location.continent se asigna a additional.fields.value.string_value con la clave "location_continent". |
location.coordinates.latitude | read_only_udm.principal.location.region_coordinates.latitude | El campo location.coordinates.latitude se convierte en un número de punto flotante y se asigna a principal.location.region_coordinates.latitude. |
location.coordinates.longitude | read_only_udm.principal.location.region_coordinates.longitude | El campo location.coordinates.longitude se convierte en un número de punto flotante y se asigna a principal.location.region_coordinates.longitude. |
location.country | read_only_udm.principal.location.country_or_region | El campo location.country se asigna a principal.location.country_or_region. |
location.geoCoordinates.latitude | read_only_udm.principal.location.region_coordinates.latitude | Si el campo location.coordinates.latitude está vacío, el campo location.geoCoordinates.latitude se convierte en un número de punto flotante y se asigna a principal.location.region_coordinates.latitude. |
location.geoCoordinates.longitude | read_only_udm.principal.location.region_coordinates.longitude | Si el campo location.coordinates.longitude está vacío, el campo location.geoCoordinates.longitude se convierte en un número de punto flotante y se asigna a principal.location.region_coordinates.longitude. |
location.postalCode | read_only_udm.additional.fields.value.string_value | El campo location.postalCode se asigna a additional.fields.value.string_value con la clave "Código postal". |
location.province | read_only_udm.principal.location.state | El campo location.province se asigna a principal.location.state. |
operación | read_only_udm.security_result.action_details | El campo de operación se asigna a security_result.action_details. |
perspectiveId | read_only_udm.principal.group.product_object_id | El campo perspectiveId se asigna a principal.group.product_object_id. |
puerto | read_only_udm.principal.port | El campo de puerto se convierte en un número entero y se asigna a principal.port. |
risks[].severity, risks[].title | read_only_udm.security_result.category_details | El campo risks[].severity se concatena con el campo risks[].title y se asigna a security_result.category_details. |
serviceName | read_only_udm.network.application_protocol | Si el campo serviceName es "HTTP" o "HTTPS", se asigna a network.application_protocol. |
sourceIp | read_only_udm.principal.asset.ip | El campo sourceIp se asigna a principal.asset.ip. |
sourceIp | read_only_udm.principal.ip | El campo sourceIp se asigna a principal.ip. |
timestamp | read_only_udm.metadata.event_timestamp | El campo de marca de tiempo se analiza como una marca de tiempo y se asigna a metadata.event_timestamp. |
transportFingerprint.id | read_only_udm.metadata.product_log_id | El campo transportFingerprint.id se convierte en una cadena y se asigna a metadata.product_log_id. |
transportFingerprint.raw | read_only_udm.additional.fields.value.string_value | El campo transportFingerprint.raw se asigna a additional.fields.value.string_value con la clave "transportFingerprint_raw". |
tipo | read_only_udm.metadata.product_event_type | El campo type se asigna a metadata.product_event_type. |
- | read_only_udm.metadata.product_name | El valor "CENSYS_ASM" se asigna a metadata.product_name. |
- | read_only_udm.metadata.vendor_name | El valor "CENSYS" se asigna a metadata.vendor_name. |
- | read_only_udm.metadata.event_type | El tipo de evento se determina según la presencia de campos específicos: NETWORK_CONNECTION si has_princ_machine_id y has_target_machine son verdaderos y has_network_flow es falso, NETWORK_DNS si has_network_flow es verdadero, STATUS_UPDATE si has_princ_machine_id es verdadero y GENERIC_EVENT en otros casos. |
¿Necesitas más ayuda? Obtén respuestas de miembros de la comunidad y profesionales de Google SecOps.