App für die Belegungsanalyse mit BigQuery-Prognose erstellen


Vertex AI Vision ist eine KI-gestützte Plattform, mit der Sie Videodaten aufnehmen, analysieren und speichern können. Mit Vertex AI Vision können Sie KI-Anwendungen erstellen und bereitstellen. Sie können End-to-End-Lösungen für Vertex AI Vision erstellen, indem Sie die Integration von Vertex AI Vision in andere Produktkomponenten nutzen.

Bevor Sie mit der Implementierung von Lösungen mit der Vertex AI Vision-Plattform beginnen, sollten Sie sich mit den folgenden Konzepten und Komponenten von Vertex AI Vision vertraut machen:

  • Streams: Stellen eine Videostreaming-Ebene Ihrer Lösung dar. Die Streamquelle kann ein Live-Video (z. B. eine IP-Kamera) oder eine Videodatei (z. B. eine MP4-Datei) sein.

  • Anwendungen: Ermöglichen die Verbindung zwischen einem Stream und einem KI-Prozessor, um einen Vorgang für maschinelles Lernen auf das Video anzuwenden. Sie können beispielsweise einen Kamerastream mit einem KI-Modell verbinden, das Personen zählt, die daran vorbeigehen.

  • Ziel der App-Ausgabe: Senden Sie analysierte Daten an ein Speicherziel (Media Warehouse von Vertex AI Vision oder BigQuery) oder empfangen Sie Live-Daten. Wenn Sie Daten im Media Warehouse von Vertex AI Vision speichern, können Sie die Analyseausgabe und Metadaten der KI-Prozessoren durchsuchen, die für Daten aus den aufgenommenen Streams verwendet wurden. Wenn Sie Daten in BigQuery speichern, können Sie die Offlineanalysefunktionen des Produkts nutzen. Wenn Sie die Ausgabe der App direkt erhalten, können Sie die Erkenntnisse sofort für Geschäftsentscheidungen nutzen. Weitere Informationen finden Sie unter Übersicht: Anwendungsausgabe mit einem Datenziel verbinden.

Lernziele

In dieser Anleitung wird Folgendes beschrieben:

  • ein BigQuery-Dataset und eine Tabelle erstellen
  • Erstellen Sie eine Vertex AI Vision-App zur Analyse der Belegung, die eine Verbindung zu BigQuery herstellt.
  • Erstellen Sie eine Compute Engine-VM-Instanz und richten Sie die Umgebung ein.
  • Video von der VM-Instanz zur App streamen
  • Mit gespeicherten App-Ausgaben ein Prognosemodell mit BigQuery ML erstellen

Kosten

In diesem Dokument verwenden Sie die folgenden kostenpflichtigen Komponenten von Google Cloud:

Mit dem Preisrechner können Sie eine Kostenschätzung für Ihre voraussichtliche Nutzung vornehmen.

Neuen Google Cloud Nutzern steht möglicherweise eine kostenlose Testversion zur Verfügung.

Nach Abschluss der in diesem Dokument beschriebenen Aufgaben können Sie weitere Kosten vermeiden, indem Sie die erstellten Ressourcen löschen. Weitere Informationen finden Sie unter Bereinigen.

Hinweise

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the BigQuery, Compute Engine and Vision AI APIs.

    Enable the APIs

  5. Create a service account:

    1. In the Google Cloud console, go to the Create service account page.

      Go to Create service account
    2. Select your project.
    3. In the Service account name field, enter a name. The Google Cloud console fills in the Service account ID field based on this name.

      In the Service account description field, enter a description. For example, Service account for quickstart.

    4. Click Create and continue.
    5. Grant the following roles to the service account: Vision AI > Vision AI Editor, Compute Engine > Compute Instance Admin (beta), BigQuery > BigQuery Data Owner, Storage > Storage Object Viewer.

      To grant a role, find the Select a role list, then select the role.

      To grant additional roles, click Add another role and add each additional role.

    6. Click Continue.
    7. Click Done to finish creating the service account.

      Do not close your browser window. You will use it in the next step.

  6. Create a service account key:

    1. In the Google Cloud console, click the email address for the service account that you created.
    2. Click Keys.
    3. Click Add key, and then click Create new key.
    4. Click Create. A JSON key file is downloaded to your computer.
    5. Click Close.
  7. Install the Google Cloud CLI.

  8. If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.

  9. To initialize the gcloud CLI, run the following command:

    gcloud init
  10. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  11. Make sure that billing is enabled for your Google Cloud project.

  12. Enable the BigQuery, Compute Engine and Vision AI APIs.

    Enable the APIs

  13. Create a service account:

    1. In the Google Cloud console, go to the Create service account page.

      Go to Create service account
    2. Select your project.
    3. In the Service account name field, enter a name. The Google Cloud console fills in the Service account ID field based on this name.

      In the Service account description field, enter a description. For example, Service account for quickstart.

    4. Click Create and continue.
    5. Grant the following roles to the service account: Vision AI > Vision AI Editor, Compute Engine > Compute Instance Admin (beta), BigQuery > BigQuery Data Owner, Storage > Storage Object Viewer.

      To grant a role, find the Select a role list, then select the role.

      To grant additional roles, click Add another role and add each additional role.

    6. Click Continue.
    7. Click Done to finish creating the service account.

      Do not close your browser window. You will use it in the next step.

  14. Create a service account key:

    1. In the Google Cloud console, click the email address for the service account that you created.
    2. Click Keys.
    3. Click Add key, and then click Create new key.
    4. Click Create. A JSON key file is downloaded to your computer.
    5. Click Close.
  15. Install the Google Cloud CLI.

  16. If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.

  17. To initialize the gcloud CLI, run the following command:

    gcloud init
  18.  Rolle ist nur erforderlich, wenn Sie eine Beispielvideodatei aus einem Cloud Storage-Bucket kopieren.

BigQuery für den Empfang von Daten einrichten

Damit Sie Daten empfangen und Vorhersagen aus den Daten Ihrer Analyse-App treffen können, müssen Sie ein BigQuery-Dataset und eine Tabelle erstellen, die den verarbeiteten Informationen entsprechen.

Dataset erstellen

Bevor Sie eine BigQuery-Tabelle erstellen können, müssen Sie zuerst ein Dataset erstellen, in dem die analysierten Informationen aus Ihrer App gespeichert werden.

Console

  1. Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.

    Zur Seite "BigQuery"

  2. Wählen Sie im Bereich Explorer das Projekt aus, in dem Sie das Dataset erstellen möchten.

  3. Maximieren Sie die Option Aktionen und klicken Sie auf Dataset erstellen.

  4. Führen Sie auf der Seite Dataset erstellen die folgenden Schritte aus:

    • Geben Sie unter Dataset-ID occupancy_dataset ein.
    • Unter Speicherort der Daten können Sie einen geografischen Standort für das Dataset auswählen. Nach der Erstellung des Datasets kann der Standort nicht mehr geändert werden.

    • Wählen Sie für Standardablauf der Tabelle eine der folgenden Optionen aus:

      • Nie: (Standardeinstellung) Tabellen, die im Dataset erstellt wurden, werden in keinem Fall automatisch gelöscht. Sie müssen sie manuell löschen.
      • Anzahl der Tage nach der Tabellenerstellung: Dieser Wert legt fest, wann eine neu erstellte Tabelle im Dataset gelöscht wird. Dieser Wert wird angewendet, wenn Sie beim Erstellen der Tabelle keine Ablaufzeit für die Tabelle festlegen.

    • Klicken Sie auf Dataset erstellen.

BigQuery-Tabelle erstellen

Console

  1. Rufen Sie in der Google Cloud Console die Seite BigQuery auf.

    BigQuery aufrufen

  2. Maximieren Sie im Bereich Explorer Ihr Projekt und wählen Sie dann das Dataset occupancy_dataset aus.
  3. Klicken Sie im Abschnitt Dataset-Informationen auf Tabelle erstellen.
  4. Geben Sie im Bereich Tabelle erstellen die folgenden Details an:
    1. Wählen Sie im Abschnitt Quelle in der Liste Tabelle erstellen aus die Option Leere Tabelle aus.
    2. Geben Sie im Bereich Ziel die folgenden Details an:
      1. Prüfen Sie, ob im Feld Dataset (Dataset) occupancy_dataset angegeben ist.
      2. Geben Sie im Feld Tabelle den Wert occupancy_dataset_table ein.
      3. Achten Sie darauf, dass das Feld Tabellentyp auf Native Tabelle eingestellt ist.
    3. Geben Sie im Abschnitt Schema die Schemadefinition ein. So können Sie Schemainformationen manuell eingeben:
      • Klicken Sie auf  Als Text bearbeiten und fügen Sie das folgende JSON-Array-Schema ein. Wenn Sie ein JSON-Array verwenden, generieren Sie das Schema mit demselben Verfahren wie beim Erstellen einer JSON-Schemadatei.
        [
            {
              "name": "ingestion_time",
              "type": "TIMESTAMP",
              "mode": "REQUIRED"
            },
            {
              "name": "application",
              "type": "STRING",
              "mode": "REQUIRED"
            },
            {
              "name": "instance",
              "type": "STRING",
              "mode": "REQUIRED"
            },
            {
              "name": "node",
              "type": "STRING",
              "mode": "REQUIRED"
            },
            {
              "name": "annotation",
              "type": "STRING"
            }
        ]
    4. Klicken Sie auf Tabelle erstellen.

Anwendung zur Ermittlung der Belegung erstellen

Nachdem Sie Ihr BigQuery-Dataset und Ihre BigQuery-Tabelle eingerichtet haben, können Sie die App erstellen, die die an diese BigQuery-Ressourcen gesendeten Daten verarbeitet.

Leere Anwendung erstellen

Bevor Sie den App-Graphen erstellen können, müssen Sie zuerst eine leere App erstellen.

Console

Erstellen Sie eine App in der Google Cloud -Konsole.

  1. Öffnen Sie den Tab Anwendungen des Vertex AI Vision-Dashboards.

    Zum Tab „Anwendungen“

  2. Klicken Sie auf die Schaltfläche Erstellen.

  3. Geben Sie occupancy-bq-app als App-Namen ein und wählen Sie Ihre Region aus.

  4. Klicken Sie auf Erstellen.

Knoten für Anwendungskomponenten hinzufügen

Nachdem Sie die leere Anwendung erstellt haben, können Sie dem App-Diagramm die drei Knoten hinzufügen:

  1. Aufnahmeknoten: Die Streamressource, die Daten aufnimmt, die von einer von Ihnen erstellten Compute Engine-VM-Instanz gesendet werden.
  2. Verarbeitungsknoten: Das Modell für die Analyse der Belegung, das auf aufgenommene Daten angewendet wird.
  3. BigQuery-Knoten: Der Connector-Knoten, mit dem Ihre App Metadaten in Ihrer BigQuery-Tabelle speichern kann.

Console

Fügen Sie Ihrer App in der Konsole Knoten für Komponenten hinzu.

  1. Öffnen Sie den Tab Anwendungen des Vertex AI Vision-Dashboards.

    Zum Tab „Anwendungen“

  2. Wählen Sie in der Zeile occupancy-bq-app die Option Diagramm ansehen aus. Sie gelangen dann zur grafischen Darstellung der Verarbeitungspipeline.

Knoten für die Datenaufnahme hinzufügen

  1. Wenn Sie einen Knoten für den Eingabestream hinzufügen möchten, wählen Sie im seitlichen Menü im Abschnitt Connectors die Option Streams aus.

  2. Wählen Sie im Abschnitt Quelle des sich öffnenden Menüs Stream die Option Streams hinzufügen aus.

  3. Wählen Sie im Menü Streams hinzufügen die Option Neue Streams registrieren aus und fügen Sie occupancy-bq-stream als Streamname hinzu.

  4. Klicken Sie auf Streams hinzufügen, um den Stream dem App-Diagramm hinzuzufügen.

Knoten zur Datenverarbeitung hinzufügen

  1. Wenn Sie den Knoten für das Modell zur Berechnung der Belegung hinzufügen möchten, wählen Sie im seitlichen Menü im Abschnitt Spezialisierte Modelle die Option occupancy analytics aus.

  2. Lassen Sie die Standardauswahl Personen und Fahrzeuge unverändert.

BigQuery-Knoten hinzufügen

  1. Wählen Sie im Abschnitt Connectors des Seitenmenüs die Option BigQuery aus, um den Knoten für den Ausgabespeicherort (Speicher) hinzuzufügen.

  2. Suchen Sie im Menü BigQuery nach occupancy_dataset_table und wählen Sie Ihre Tabelle aus.

  3. Wählen Sie im Abschnitt Metadaten speichern aus sowohl Streams als auch Belegungsanalyse aus.

Anwendung zur Verwendung bereitstellen

Nachdem Sie Ihre End-to-End-App mit allen erforderlichen Komponenten erstellt haben, müssen Sie sie nur noch bereitstellen.

Console

  1. Öffnen Sie den Tab Anwendungen des Vertex AI Vision-Dashboards.

    Zum Tab „Anwendungen“

  2. Wählen Sie in der Liste neben der occupancy-bq-app App Grafik ansehen aus.

  3. Klicken Sie auf der Seite „Application Graph Builder“ (Tool zum Erstellen von Anwendungsdiagrammen) auf die Schaltfläche Deploy (Bereitstellen).

  4. Wählen Sie im Bestätigungsdialogfeld Bereitstellen aus.

    Die Bereitstellung kann mehrere Minuten dauern. Nach Abschluss der Bereitstellung werden neben den Knoten grüne Häkchen angezeigt.

Remote-Computer für das Streamen von Videos einrichten

Nachdem Sie nun eine bereitgestellte App zur Erfassung der Belegung haben, die Streamingdaten empfangen, verarbeiten und in einer BigQuery-Tabelle speichern kann, müssen Sie Videodaten in die App streamen.

In diesem Tutorial erstellen Sie eine Compute Engine-VM-Instanz, auf der ein Video gehostet wird, und senden die Streamingvideodaten von der VM.

Linux-VM erstellen

Der erste Schritt beim Senden von Videos von einer Compute Engine-VM-Instanz ist das Erstellen der VM-Instanz.

Console

  1. Rufen Sie in der Console die Seite VM-Instanzen auf.

    Zu "VM-Instanzen"

  2. Wählen Sie Ihr Projekt aus und klicken Sie auf Weiter.

  3. Klicken Sie auf Instanz erstellen.

  4. Geben Sie einen Namen für Ihre VM an. Weitere Informationen finden Sie unter Namenskonvention für Ressourcen.

  5. Ändern Sie optional die Zone für diese VM. In Compute Engine wird die Liste der Zonen in jeder Region zufällig angeordnet, um die Verwendung in mehreren Zonen zu fördern.

  6. Übernehmen Sie die verbleibenden Standardoptionen. Weitere Informationen zu diesen Optionen finden Sie unter VM erstellen und starten.

  7. Klicken Sie zum Erstellen und Starten der VM auf Erstellen.

VM-Umgebung einrichten

Nachdem die VM gestartet wurde, können Sie über die Console eine SSH-Verbindung in Ihrem Browser herstellen. Nachdem Sie diese Verbindung hergestellt haben, können Sie das vaictl-Befehlszeilentool herunterladen, um Videos in Ihre App aufzunehmen.

Console

SSH-Verbindung zur VM herstellen

  1. Rufen Sie in der Console die Seite VM-Instanzen auf.

    Zu "VM-Instanzen"

  2. Klicken Sie im Abschnitt Verbinden der von Ihnen erstellten Instanzzeile auf SSH. Damit wird in einem neuen Browserfenster eine SSH-Verbindung geöffnet.

    Die SSH-Option in der Benutzeroberfläche

vaictl-Befehlszeilentool herunterladen

  1. Laden Sie im Fenster SSH im Browser das Befehlszeilentool für Vertex AI Vision (vaictl) mit dem folgenden Befehl herunter:

    wget https://github.com/google/visionai/releases/download/v0.0.5/visionai_0.0-5_amd64.deb
    
  2. Installieren Sie das Befehlszeilentool mit dem folgenden Befehl:

    sudo apt install ./visionai_0.0-5_amd64.deb
    
  3. Sie können die Installation mit dem folgenden Befehl testen:

    vaictl --help
    

Videodatei in Ihre App aufnehmen

Nachdem Sie Ihre VM-Umgebung eingerichtet haben, können Sie eine Beispielvideodatei kopieren und dann vaictl verwenden, um die Videodaten in Ihre App zur Erfassung der Belegung zu streamen.

Nachdem Sie diesen Befehl gesendet haben, müssen Sie mehrere Stunden warten, bis Daten gestreamt werden, bevor Sie mit dem nächsten Schritt fortfahren.

SSH im Browser

Beispielvideo auf Ihre VM kopieren

  1. Kopieren Sie im SSH-in-Browser-Fenster für Ihre VM ein Beispielvideo mit dem folgenden gcloud storage cp-Befehl. Ersetzen Sie die folgende Variable:
    • SOURCE: Der Speicherort einer Videodatei, die verwendet werden soll. Sie können Ihre eigene Videoquelldatei verwenden (z. B. gs://BUCKET_NAME/FILENAME.mp4) oder eines der Beispielvideos:
      • gs://cloud-samples-data/vertex-ai-vision/street_vehicles_people.mp4 (Video mit Personen und Fahrzeugen, Videoquelle)
      • gs://cloud-samples-data/vertex-ai-vision/highway_vehicles.mp4 (Video mit Fahrzeugen, Videoquelle)
    gcloud storage cp SOURCE .

Video von VM streamen und Daten in Ihre App aufnehmen

  1. Verwenden Sie den folgenden Befehl, um diese lokale Videodatei an den Eingabestream der App zu senden. Sie müssen die folgenden Variablen ersetzen:
    • PROJECT_ID: Ihre Google Cloud -Projekt-ID
    • LOCATION_ID: Ihre Standort-ID. Beispiel: us-central1. Weitere Informationen
    • LOCAL_FILE.EXT: Der Dateiname einer lokalen Videodatei. Beispiel: my-video.mp4.
    • Flag --loop: Optional. Wiederholt Dateidaten, um Streaming zu simulieren.

    Mit diesem Befehl wird eine Videodatei in einen Stream übertragen. Wenn Sie das Flag --loop verwenden, wird das Video im Stream wiederholt, bis Sie den Befehl beenden:

    vaictl -p PROJECT_ID \
        -l LOCATION_ID \
        -c application-cluster-0 \
        --service-endpoint visionai.googleapis.com \
    send video-file to streams 'occupancy-bq-stream' --file-path LOCAL_FILE.EXT --loop

Es kann etwa 100 Sekunden dauern, bis das Video nach dem Starten des vaictl-Aufnahmevorgangs im Dashboard angezeigt wird.

Nachdem die Streamaufnahme verfügbar ist, können Sie den Videofeed auf dem Tab Streams des Vertex AI Vision-Dashboards aufrufen, indem Sie den occupancy-bq-stream-Stream auswählen.

Zum Tab „Streams“

Prognosemodell mit BigQuery ML erstellen

Sie haben jetzt eine funktionierende App, die Metadaten in BigQuery speichert. Nachdem Sie einige Stunden lang Daten in Ihre App gestreamt haben, können Sie mit BigQuery ML ein Prognosemodell erstellen.

Optional: Belegungsabfrage ausführen

Sie können die von der App erstellten Daten, die in der Tabelle gespeichert sind, mit einer einfachen Abfrage aufrufen.

Console

  1. Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.

    BigQuery aufrufen

  2. Wählen Sie neben occupancy_dataset die Option Maximieren und dann occupancy_dataset_table aus.

  3. Klicken Sie in der Tabellendetailansicht auf Neue Abfrage erstellen.

    Neue Abfrage erstellen

  4. Geben Sie in den Textbereich im Abfrageeditor die folgende Google Standard-SQL-Abfrage ein:

    SELECT
     *
    FROM (
     SELECT
       TIMESTAMP_TRUNC(PARSE_TIMESTAMP('"%Y-%m-%dT%H:%M:%E*SZ"', JSON_QUERY(annotation,
             "$.currentTime")), MINUTE) currentTime,
       CAST(JSON_QUERY(annotation,
           '$.stats.fullFrameCount[0].count') AS INT64) AS count,
       JSON_QUERY(annotation,
         '$.stats.fullFrameCount[0].entity.labelString') AS type
     FROM
       `PROJECT_ID.occupancy_dataset.occupancy_dataset_table` )
    WHERE
     count IS NOT NULL
  5. Optional: Klicken Sie auf Mehr und dann auf Abfrageeinstellungen, um den Ort der Datenverarbeitung zu ändern. Klicken Sie unter Processing location (Verarbeitungsstandort) auf Auto-select (Automatische Auswahl) und wählen Sie den Standort Ihrer Daten aus. Klicken Sie abschließend auf Save (Speichern), um die Abfrageeinstellungen zu aktualisieren.

  6. Klicken Sie auf Run (Ausführen).

Dies erstellt einen Abfragejob, der die Ausgabe in eine temporäre Tabelle schreibt.

Wenn Sie diese Abfrage ausführen, wird eine Tabelle mit Zeit- und Zählinformationen erstellt, wenn Personen im Video zu sehen sind.

currentTime (Aktuelle Uhrzeit) Anzahl Typ
2022-08-10 16:17:00 UTC 2 „Person“
2022-08-10 16:17:00 UTC 2 „Person“
2022-08-10 16:17:00 UTC 4 „Person“
2022-08-10 16:17:00 UTC 1 „Person“
2022-08-10 16:17:00 UTC 5 „Person“
2022-08-10 16:17:00 UTC 2 „Person“

Ansicht für das Training erstellen

Nachdem Sie die in der Tabelle gespeicherten Daten gesehen haben, können Sie eine Ansicht erstellen und dann den Inhalt der resultierenden Tabelle prüfen. Sie verwenden diese Daten, um Ihr Prognosemodell zu trainieren.

Sie können eine Ansicht erstellen, indem Sie eine SQL-Abfrage verfassen, mit der die für die Ansicht zugänglichen Daten definiert werden. Die SQL-Abfrage muss aus einer SELECT-Anweisung bestehen. Weitere Informationen zu BigQuery-Ansichten finden Sie unter Einführung in Ansichten.

So erstellen Sie eine Ansicht für die Trainingstabelle:

Console

  1. Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.

    BigQuery aufrufen

  2. Wählen Sie neben occupancy_dataset die Option Maximieren und dann occupancy_dataset_table aus.

  3. Klicken Sie in der Tabellendetailansicht auf Neue Abfrage erstellen.

    Neue Abfrage erstellen

  4. Geben Sie in den Textbereich im Abfrageeditor die folgende Google Standard-SQL-Abfrage ein:

    CREATE VIEW `PROJECT_ID.occupancy_dataset.forecast_training_data` AS (
      WITH
        raw_counts AS (
        SELECT
          *
        FROM (
          SELECT
            TIMESTAMP_TRUNC(
              PARSE_TIMESTAMP('"%Y-%m-%dT%H:%M:%E*SZ"',
                              JSON_QUERY(annotation,
                                          "$.currentTime")),
                            MINUTE) AS currentTime,
            CAST(JSON_QUERY(annotation,
                '$.stats.fullFrameCount[0].count') AS INT64) AS count,
            JSON_QUERY(annotation,
              '$.stats.fullFrameCount[0].entity.labelString') AS type
          FROM
            `PROJECT_ID.occupancy_dataset.occupancy_dataset_table` )
        WHERE
          count IS NOT NULL )
      SELECT
        currentTime,
        SUM(count) AS total_count,
        type
      FROM
        raw_counts
      GROUP BY
        currentTime, type)
  5. Klicken Sie auf Ausführen.

Optional: Ansicht abfragen

Führen Sie die folgende Abfrage aus, um die Ergebnisse der neuen Trainingsdaten für Ansichten aufzurufen:

Console

  1. Klicken Sie in der Detailansicht der Tabelle occupancy_dataset_table auf Neue Abfrage erstellen.

  2. Geben Sie in den Textbereich im Abfrageeditor die folgende Google Standard-SQL-Abfrage ein:

    SELECT
     *
    FROM
      `PROJECT_ID.occupancy_dataset.forecast_training_data`
    ORDER BY
     currentTime, type
    LIMIT
     100
  3. Klicken Sie auf Ausführen.

Dies gibt ein nach Zeit sortiertes Ergebnis wie das folgende zurück:

currentTime (Aktuelle Uhrzeit) total_count Typ
2022-08-10 16:17:00 UTC 129 „Person“
2022-08-10 16:18:00 UTC 150 „Person“
2022-08-10 16:19:00 UTC 80 „Person“
2022-08-10 16:20:00 UTC 129 „Person“
2022-08-10 16:21:00 UTC 142 „Person“
2022-08-10 16:22:00 UTC 71 „Person“
2022-08-10 16:22:00 UTC 2 „Fahrzeug“

Prognosemodell mit BigQuery ML trainieren

Nachdem Sie nun Daten in einer Ansicht haben, die als Trainingsdaten dienen, können Sie das Prognosemodell mit BigQuery ML trainieren.

Console

  1. Klicken Sie in der Detailansicht der Tabelle occupancy_dataset_table auf Neue Abfrage erstellen.

  2. Geben Sie in den Textbereich im Abfrageeditor die folgende Google Standard-SQL-Abfrage ein:

    CREATE OR REPLACE MODEL `PROJECT_ID.occupancy_dataset.occupancy_forecast_model`
      OPTIONS( MODEL_TYPE = "ARIMA_PLUS",
        TIME_SERIES_TIMESTAMP_COL = "currentTime",
        TIME_SERIES_DATA_COL = "total_count",
        TIME_SERIES_ID_COL = "type" ) AS
    SELECT
      *
    FROM
      `PROJECT_ID.occupancy_dataset.forecast_training_data`
  3. Klicken Sie auf Ausführen.

Die Abfrage kann mehrere Minuten dauern. Nach dem ersten Durchlauf wird das Modell (occupancy_forecast_model) im Navigationsbereich angezeigt. Da die Abfrage eine CREATE MODEL-Anweisung zum Erstellen eines Modells verwendet, werden keine Abfrageergebnisse angezeigt.

Auf dem Tab Modellstatistik können Sie beobachten, wie das Modell trainiert wird. Sobald der erste Durchlauf abgeschlossen ist, wird der Tab aktualisiert. Die Statistiken werden bei jedem Durchlauf aktualisiert.

Belegungsvorhersage mit BigQuery abrufen

Nachdem das Modell trainiert wurde, können Sie eine Vorhersage zur Anzahl der Personen im Raum abrufen.

In der folgenden ML.FORECAST-Abfrage wird die Eingabe der Funktion HORIZON verwendet, um eine Prognose für die nächsten 60 Minuten zu erstellen.

Console

  1. Klicken Sie in der Detailansicht der Tabelle occupancy_dataset_table auf Neue Abfrage erstellen.

  2. Geben Sie in den Textbereich im Abfrageeditor die folgende Google Standard-SQL-Abfrage ein:

    SELECT
      *
    FROM
      ML.FORECAST(MODEL `PROJECT_ID.occupancy_dataset.occupancy_forecast_model`,
      STRUCT(60 AS HORIZON))
  3. Klicken Sie auf Ausführen.

Das Modell erstellt Prognosen unter forecast_value für zukünftige Zeitstempel, bei denen der Typ "Person" ist. Beispiel: Auf 2022-08-12 um 11:06:00 prognostiziert das Modell insgesamt etwa 15,26 „Personen“.

Typ forecast_timestamp forecast_value standard_error confidence_level prediction_interval_lower_bound prediction_interval_upper_bound
„Person“ 2022-08-12 11:06:00 UTC 15.2621986941298 2.56470066 0,95 10.2444693 20.2799280
„Person“ 2022-08-12 11:07:00 UTC 13.235260043001354 3.19379743 0,95 6.98672921 19.4837908
„Person“ 2022-08-12 11:08:00 UTC 16.257331475128712 3,87581375 0,95 8.67446430 23.8401986
„Person“ 2022-08-12 11:09:00 UTC 31.432229611853742 4.24905293 0,95 23,1191356 39.7453236
„Person“ 2022-08-12 11:10:00 UTC 26.199214148193725 4.26157413 0,95 17.8616229 34.5368053
„Person“ 2022-08-12 11:11:00 UTC 26.211573546307324 4.27962512 0,95 17,8386663 34.5844807

Bereinigen

Damit Ihrem Google Cloud-Konto die in dieser Anleitung verwendeten Ressourcen nicht in Rechnung gestellt werden, löschen Sie entweder das Projekt, das die Ressourcen enthält, oder Sie behalten das Projekt und löschen die einzelnen Ressourcen.

Projekt löschen

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Einzelne Ressourcen löschen

Compute Engine-VM-Instanz löschen

  1. In the Google Cloud console, go to the VM instances page.

    Go to VM instances

  2. Select the checkbox for the instance that you want to delete.
  3. To delete the instance, click More actions, click Delete, and then follow the instructions.

BigQuery-Dataset löschen

  1. In the Google Cloud console, open the BigQuery page.

    Go to BigQuery

  2. Select expand next to your project and locate your occupancy_dataset dataset.
  3. To delete the dataset, click Actions, click Delete, and then follow the instructions.

Stream löschen

  1. In the Google Cloud console, go to the Streams page.

    Go to the Streams tab

  2. Locate your occupancy-bq-stream stream.
  3. To delete the stream, click Actions, click Delete stream, and then follow the instructions.

Apps löschen

  1. In the Google Cloud console, go to the Applications page.

    Go to the Applications tab

  2. Locate your occupancy-bq-app app.
  3. To delete the app, click Actions, click Delete application, and then follow the instructions.

Nächste Schritte