Recoger registros de auditoría de Aware

Disponible en:

En este documento se explica cómo ingerir registros de auditoría de Aware en Google Security Operations mediante Amazon S3.

Antes de empezar

Asegúrate de que cumples los siguientes requisitos previos:

  • Instancia de Google SecOps
  • Acceso privilegiado al arrendatario de Aware
  • Acceso privilegiado a AWS (S3, IAM, Lambda y EventBridge)

Recoger los requisitos previos de Aware (IDs, claves de API, IDs de organización y tokens)

  1. Inicia sesión en la consola de administración de Aware.
  2. Ve a Configuración del sistema > Integraciones > Tokens de API.
  3. Haz clic en + Token de API y concede el permiso Solo lectura de registros de auditoría.
  4. Copia y guarda en un lugar seguro los siguientes detalles:
    • Token de API
    • URL base de la API: https://api.aware.work/external/system/auditlogs/v1

Configurar un segmento de AWS S3 y IAM para Google SecOps

  1. Crea un segmento de Amazon S3 siguiendo esta guía de usuario: Crear un segmento.
  2. Guarda el nombre y la región del segmento para consultarlos más adelante (por ejemplo, aware-audit-logs).
  3. Crea un usuario siguiendo esta guía: Crear un usuario de gestión de identidades y accesos.
  4. Selecciona el Usuario creado.
  5. Selecciona la pestaña Credenciales de seguridad.
  6. En la sección Claves de acceso, haz clic en Crear clave de acceso.
  7. Selecciona Servicio de terceros como Caso práctico.
  8. Haz clic en Siguiente.
  9. Opcional: añade una etiqueta de descripción.
  10. Haz clic en Crear clave de acceso.
  11. Haz clic en Descargar archivo CSV para guardar la clave de acceso y la clave de acceso secreta para usarlas más adelante.
  12. Haz clic en Listo.
  13. Selecciona la pestaña Permisos.
  14. En la sección Políticas de permisos, haz clic en Añadir permisos.
  15. Selecciona Añadir permisos.
  16. Seleccione Adjuntar políticas directamente.
  17. Busca y selecciona la política AmazonS3FullAccess.
  18. Haz clic en Siguiente.
  19. Haz clic en Añadir permisos.

Configurar la política y el rol de gestión de identidades y accesos para las subidas de S3

  1. En la consola de AWS, vaya a IAM > Policies > Create policy > JSON tab (IAM > Políticas > Crear política > pestaña JSON).
  2. Introduce la siguiente política:

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Sid": "AllowPutObjects",
          "Effect": "Allow",
          "Action": "s3:PutObject",
          "Resource": "arn:aws:s3:::aware-audit-logs/*"
        },
        {
          "Sid": "AllowGetStateObject",
          "Effect": "Allow",
          "Action": "s3:GetObject",
          "Resource": "arn:aws:s3:::aware-audit-logs/aware/state.json"
        }
      ]
    }
    
    • Sustituye aware-audit-logs si has introducido otro nombre de segmento.
  3. Haz clic en Siguiente > Crear política.

  4. Ve a IAM > Roles > Crear rol > Servicio de AWS > Lambda.

  5. Adjunte la política que acaba de crear.

  6. Dale el nombre AwareAuditLambdaRole al rol y haz clic en Crear rol.

Crear la función Lambda

  1. En la consola de AWS, ve a Lambda > Funciones > Crear función.
  2. Haz clic en Crear desde cero.
  3. Proporciona los siguientes detalles de configuración:
Ajuste Valor
Nombre aware-audit-poller
Tiempo de ejecución Python 3.13
Arquitectura x86_64
Rol de ejecución AwareAuditLambdaRole
  1. Una vez creada la función, abra la pestaña Código, elimine el stub e introduzca el siguiente código (aware-audit-poller.py):

    import boto3, gzip, io, json, os, time, urllib.parse
    import urllib.request
    from datetime import datetime, timedelta, timezone
    from botocore.exceptions import ClientError
    
    AWARE_ENDPOINT = "https://api.aware.work/external/system/auditlogs/v1"
    API_TOKEN = os.environ["AWARE_API_TOKEN"]
    BUCKET = os.environ["S3_BUCKET"]
    PREFIX = os.environ.get("S3_PREFIX", "aware/audit/")
    STATE_KEY = os.environ.get("STATE_KEY", "aware/state.json")
    MAX_PER_PAGE = int(os.environ.get("MAX_PER_PAGE", "500"))
    
    s3 = boto3.client("s3")
    
    def _load_state():
        try:
            obj = s3.get_object(Bucket=BUCKET, Key=STATE_KEY)
            return json.loads(obj["Body"].read().decode("utf-8"))
        except ClientError as e:
            if e.response.get("Error", {}).get("Code") == "NoSuchKey":
                return {}
            raise
    
    def _save_state(state):
        s3.put_object(Bucket=BUCKET, Key=STATE_KEY, Body=json.dumps(state).encode("utf-8"))
    
    def handler(event, context):
        tz_utc = timezone.utc
        now = datetime.now(tz=tz_utc)
    
        state = _load_state()
        start_date = (
            datetime.fromisoformat(state["last_date"]).date() if "last_date" in state
            else (now - timedelta(days=1)).date()
        )
        end_date = now.date()
    
        total = 0
        day = start_date
        while day <= end_date:
            day_str = day.strftime("%Y-%m-%d")
            params = {"filter": f"startDate:{day_str},endDate:{day_str}", "limit": str(MAX_PER_PAGE)}
            offset = 1
    
            out = io.BytesIO()
            gz = gzip.GzipFile(filename="aware_audit.jsonl", mode="wb", fileobj=out)
            wrote_any = False
    
            while True:
                q = urllib.parse.urlencode({**params, "offset": str(offset)})
                req = urllib.request.Request(f"{AWARE_ENDPOINT}?{q}")
                req.add_header("X-Aware-Api-Key", API_TOKEN)
                with urllib.request.urlopen(req, timeout=30) as resp:
                    payload = json.loads(resp.read().decode("utf-8"))
                items = (payload.get("value") or {}).get("auditLogData") or []
                if not items:
                    break
                for item in items:
                    gz.write((json.dumps(item, separators=(",", ":")) + "n").encode("utf-8"))
                    total += 1
                    wrote_any = True
                offset += 1
                time.sleep(0.2)
    
            gz.close()
            if wrote_any:
                key = f"{PREFIX}{day.strftime('%Y/%m/%d')}/aware_audit_{now.strftime('%Y%m%d_%H%M%S')}.jsonl.gz"
                s3.put_object(
                    Bucket=BUCKET,
                    Key=key,
                    Body=out.getvalue(),
                    ContentType="application/json",
                    ContentEncoding="gzip",
                )
    
            _save_state({"last_date": day.isoformat()})
            day += timedelta(days=1)
    
        return {"status": "ok", "written": total}
    
  2. Ve a Configuración > Variables de entorno > Editar > Añadir nueva variable de entorno.

  3. Introduce las siguientes variables de entorno y sustituye los valores por los tuyos:

    Clave Valor de ejemplo
    S3_BUCKET aware-audit-logs
    S3_PREFIX aware/audit/
    STATE_KEY aware/state.json
    AWARE_API_TOKEN <your-aware-api-token>
    MAX_PER_PAGE 500
  4. Una vez creada la función, permanece en su página (o abre Lambda > Funciones > tu-función**).

  5. Seleccione la pestaña Configuración.

  6. En el panel Configuración general, haz clic en Editar.

  7. Cambia Tiempo de espera a 5 minutos (300 segundos) y haz clic en Guardar.

Crear una programación de EventBridge

  1. Ve a Amazon EventBridge > Scheduler > Create schedule (Amazon EventBridge > Programador > Crear programación).
  2. Proporcione los siguientes detalles de configuración:
    • Programación periódica: Precio (1 hour).
    • Destino: tu función Lambda aware-audit-poller.
    • Nombre: aware-audit-poller-1h.
  3. Haz clic en Crear programación.

Opcional: Crear un usuario y claves de gestión de identidades y accesos de solo lectura para Google SecOps

  1. En la consola de AWS, ve a IAM > Usuarios > Añadir usuarios.
  2. Haz clic en Add users (Añadir usuarios).
  3. Proporcione los siguientes detalles de configuración:
    • Usuario: secops-reader.
    • Tipo de acceso: Clave de acceso (acceso programático).
  4. Haz clic en Crear usuario.
  5. Asigna una política de lectura mínima (personalizada): Usuarios > secops-reader > Permisos > Añadir permisos > Asignar políticas directamente > Crear política.
  6. En el editor de JSON, introduce la siguiente política:

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Effect": "Allow",
          "Action": ["s3:GetObject"],
          "Resource": "arn:aws:s3:::aware-audit-logs/*"
        },
        {
          "Effect": "Allow",
          "Action": ["s3:ListBucket"],
          "Resource": "arn:aws:s3:::aware-audit-logs"
        }
      ]
    }
    
  7. Asigna el nombre secops-reader-policy.

  8. Ve a Crear política > busca o selecciona > Siguiente > Añadir permisos.

  9. Ve a Credenciales de seguridad > Claves de acceso > Crear clave de acceso.

  10. Descarga el archivo CSV (estos valores se introducen en el feed).

Configurar un feed en Google SecOps para ingerir registros de auditoría de Aware

  1. Ve a Configuración de SIEM > Feeds.
  2. Haz clic en + Añadir nuevo feed.
  3. En el campo Nombre del feed, introduce un nombre para el feed (por ejemplo, Aware Audit logs).
  4. Selecciona Amazon S3 V2 como Tipo de fuente.
  5. Seleccione Aware Audit como Tipo de registro.
  6. Haz clic en Siguiente.
  7. Especifique los valores de los siguientes parámetros de entrada:
    • URI de S3: s3://aware-audit-logs/aware/audit/
    • Opciones de eliminación de la fuente: selecciona la opción de eliminación que prefieras.
    • Antigüedad máxima del archivo: incluye los archivos modificados en los últimos días. El valor predeterminado es 180 días.
    • ID de clave de acceso: clave de acceso de usuario con acceso al bucket de S3.
    • Clave de acceso secreta: clave secreta del usuario con acceso al bucket de S3.
    • Espacio de nombres de recursos: el espacio de nombres de recursos.
    • Etiquetas de ingestión: la etiqueta aplicada a los eventos de este feed.
  8. Haz clic en Siguiente.
  9. Revise la configuración de la nueva fuente en la pantalla Finalizar y, a continuación, haga clic en Enviar.

¿Necesitas más ayuda? Recibe respuestas de los miembros de la comunidad y de los profesionales de Google SecOps.