收集 Veritas NetBackup 日志

支持的语言:

本文档介绍了如何使用 Bindplane 将 Veritas NetBackup 日志注入到 Google Security Operations。解析器使用 grok 模式从 syslog 消息中提取字段,然后将其映射到统一数据模型 (UDM)。它可处理各种日志格式,包括键值对和 JSON,并执行数据转换,以便在 UDM 中以一致的方式表示数据。

准备工作

请确保满足以下前提条件:

  • Google SecOps 实例
  • Windows 2016 或更高版本,或者具有 systemd 的 Linux 主机
  • 如果通过代理运行,请确保防火墙端口处于开放状态
  • 对 Veritas NetBackup 设备具有特权访问权限

获取 Google SecOps 注入身份验证文件

  1. 登录 Google SecOps 控制台。
  2. 依次前往 SIEM 设置 > 收集代理
  3. 下载注入身份验证文件。将该文件安全地保存在将要安装 Bindplane 的系统上。

获取 Google SecOps 客户 ID

  1. 登录 Google SecOps 控制台。
  2. 依次前往 SIEM 设置 > 配置文件
  3. 复制并保存组织详细信息部分中的客户 ID

安装 Bindplane 代理

按照以下说明在 Windows 或 Linux 操作系统上安装 Bindplane 代理。

Windows 安装

  1. 以管理员身份打开命令提示符PowerShell
  2. 运行以下命令:

    msiexec /i "https://github.com/observIQ/bindplane-agent/releases/latest/download/observiq-otel-collector.msi" /quiet
    

Linux 安装

  1. 打开具有 root 或 sudo 权限的终端。
  2. 运行以下命令:

    sudo sh -c "$(curl -fsSlL https://github.com/observiq/bindplane-agent/releases/latest/download/install_unix.sh)" install_unix.sh
    

其他安装资源

如需了解其他安装选项,请参阅安装指南

配置 Bindplane 代理以注入 Syslog 并将其发送到 Google SecOps

  1. 访问配置文件:
    • 找到 config.yaml 文件。通常,它位于 Linux 上的 /etc/bindplane-agent/ 目录中或 Windows 上的安装目录中。
    • 使用文本编辑器(例如 nanovi 或记事本)打开该文件。
  2. 按如下方式修改 config.yaml 文件:

    receivers:
        udplog:
            # Replace the port and IP address as required
            listen_address: "0.0.0.0:514"
    
    exporters:
        chronicle/chronicle_w_labels:
            compression: gzip
            # Adjust the path to the credentials file you downloaded in Step 1
            creds_file_path: '/path/to/ingestion-authentication-file.json'
            # Replace with your actual customer ID from Step 2
            customer_id: <customer_id>
            endpoint: malachiteingestion-pa.googleapis.com
            # Add optional ingestion labels for better organization
            log_type: 'VERITAS_NETBACKUP'
            raw_log_field: body
            ingestion_labels:
    
    service:
        pipelines:
            logs/source0__chronicle_w_labels-0:
                receivers:
                    - udplog
                exporters:
                    - chronicle/chronicle_w_labels
    
    • 根据基础架构的需要替换端口和 IP 地址。
    • <customer_id> 替换为实际的客户 ID。
    • /path/to/ingestion-authentication-file.json 更新为获取 Google SecOps 提取身份验证文件部分中保存身份验证文件的路径。

重启 Bindplane 代理以应用更改

  • 如需在 Linux 中重启 Bindplane 代理,请运行以下命令:

    sudo systemctl restart bindplane-agent
    
  • 如需在 Windows 中重启 Bindplane 代理,您可以使用服务控制台,也可以输入以下命令:

    net stop BindPlaneAgent && net start BindPlaneAgent
    

为 Veritas NetBackup 配置 Syslog

  1. 登录 NetBackup Appliance Shell 网页界面。
  2. 依次前往主菜单 > 设置 > LogForwarding
  3. 选择启用
  4. 提供以下配置详细信息:
    • 服务器名称或 IP 地址:输入 Bindplane 代理的 IP 地址。
    • 服务器端口:输入 Bindplane 代理端口号(例如 514)。
    • 协议:根据您的 Bindplane 代理配置,选择 UDPTCP
    • 间隔时间:将默认值保留为 15。如果您将间隔设置为 0,设备会持续将 syslog 转发到目标服务器。
    • TLS:选择
  5. 输入 Yes 以完成并保存。

UDM 映射表

日志字段 UDM 映射 逻辑
data additional.fields[0].value.string_value 原始日志消息中的日期和时间,使用 grok 提取并格式化为“MM/DD/YY HH:MM:SS”。
data metadata.description 使用 grok 提取的消息的说明部分。示例:"(OdbcStatement::ExecDirect:962)::Error"。
data metadata.product_event_type 使用 grok 提取的产品事件类型。示例:“Error::83”。
data principal.asset.hostname 使用 grok 从 syslog 消息中提取的主机名。
data principal.file.full_path 从日志中的 JSON 数据提取的 PEM 文件路径。
data principal.hostname 使用 grok 从 syslog 消息中提取的主机名。
data security_result.detection_fields[0].key 如果原始日志在经过 grok 解析后包含 SqlState 字段,则会添加“SqlState”键。
data security_result.detection_fields[0].value 使用 grok 和 kv 从原始日志消息中提取的 SqlState 的值。
data security_result.detection_fields[1].key 如果在 grok 解析后,原始日志中存在 NativeError 字段,则添加“NativeError”键。
data security_result.detection_fields[1].value 使用 grok 和 kv 从原始日志消息中提取的 NativeError 值。
data security_result.detection_fields[2].key 如果原始日志在 Grok 解析后包含 sev 字段,则添加“严重程度”键。
data security_result.detection_fields[2].value 从日志中的 JSON 数据提取的 sev 值。
data security_result.severity 如果 sev 字段(从 JSON 中提取)为“normal”,则设置为“LOW”。
data security_result.summary 使用 grok 从原始日志消息中提取的错误消息或摘要。解析器中硬编码了键“date_time”。如果原始日志在经过 grok 解析后包含 thread 字段,则会添加“thread”键。
data additional.fields[1].value.string_value 从日志中的 JSON 数据提取的 thread 值。如果在 grok 解析后原始日志中存在 m 字段,则添加键“m”。
data additional.fields[2].value.string_value 从日志中的 JSON 数据提取的 m 值。如果原始日志在经过 grok 解析后包含 fn 字段,则添加“fn”键。
data additional.fields[3].value.string_value 从日志中的 JSON 数据提取的 fn 值。
collection_time metadata.event_timestamp 原始日志中 collection_time 字段的时间戳。如果存在主账号主机名,则设置为“STATUS_UPDATE”,否则设置为“GENERIC_EVENT”。硬编码为“Veritas Netbackup”。硬编码为“VERITAS NETBACKUP”。
collection_time timestamp 原始日志中 collection_time 字段的时间戳。

需要更多帮助?从社区成员和 Google SecOps 专业人士那里获得解答。