-
Annotationssatz
- Ein Annotationssatz enthält die Labels, die den hochgeladenen Quelldateien in einem Dataset zugeordnet sind. Ein Annotationssatz ist sowohl mit einem Datentyp als auch mit einem Ziel verknüpft (z. B. Video/Klassifizierung).
-
API-Endpunkt
- API-Endpunkte sind ein Dienstkonfigurationsaspekt, mit dem die Netzwerkadressen, auch Dienstendpunkte, angegeben werden (z. B. aiplatform.googleapis.com).
-
Standardanmeldedaten für Anwendungen (Application Default Credentials, ADC)
- Die Standardanmeldedaten für Anwendungen (Application Default Credentials, ADC) bieten eine einfache Möglichkeit, Autorisierungsanmeldedaten für den Aufruf von Google APIs abzurufen. Sie eignen sich am besten für Fälle, in denen der Aufruf unabhängig vom Nutzer dieselbe Identität und Autorisierungsstufe für die Anwendung haben muss. Dies ist die empfohlene Methode zum Autorisieren von Aufrufen an Google Cloud APIs, insbesondere wenn Sie eine Anwendung entwickeln, die in Google App Engine (GAE) oder auf Compute Engine-VMs bereitgestellt wird. Weitere Informationen finden Sie unter Funktionsweise von Standardanmeldedaten für Anwendungen.
-
Annäherung an den nächsten Nachbarn (ANN)
- Der ANN-Dienst (Approximate Nearest Neighbor) ist eine hochskalierbare Lösung mit niedriger Latenz, mit der ähnliche Vektoren (oder genauer gesagt „Einbettungen“) für einen großen Korpus gefunden werden können. Weitere Informationen finden Sie unter Vektorsuche für semantischen Abgleich verwenden.
-
artifact
- Ein Artefakt ist eine einzelne Entität oder ein Datenelement, das von einem ML-Workflow erzeugt und genutzt wird. Beispiele für Artefakte sind Datasets, Modelle, Eingabedateien und Trainingslogs.
-
Artifact Registry
- Artifact Registry ist ein universeller Artefaktverwaltungsdienst. Dies ist der empfohlene Dienst zum Verwalten von Containern und anderen Artefakten in Google Cloud. Weitere Informationen finden Sie unter Artifact Registry.
-
Künstliche Intelligenz (KI)
- Künstliche Intelligenz (KI) ist die Entwicklung und das Design von Maschinen, die scheinbar „intelligent“ sind, d. h. die menschliche oder intellektuelle Funktionen wie mechanische Bewegung, logisches Denken oder Problemlösung nachahmen. Eines der beliebtesten Teilgebiete der KI ist das maschinelle Lernen, bei dem ein statistischer und datengestützter Ansatz zur Erstellung von KI verwendet wird. Einige Nutzer verwenden diese beiden Begriffe jedoch synonym.
-
authentication
- Der Prozess der Überprüfung der Identität eines Clients (z. B. eines Nutzers oder eines anderen Prozesses), um auf ein gesichertes System zuzugreifen. Ein Client, der seine Identität nachgewiesen hat, gilt als authentifiziert. Weitere Informationen finden Sie unter Authentifizierungsmethoden bei Google.
-
Automatic Side-by-Side (AutoSxS)
- Automatic Side-by-Side (AutoSxS) ist ein modellgestütztes Bewertungstool, das zwei große Sprachmodelle (LLMs) nebeneinander vergleicht. Damit kann die Leistung von generativen KI-Modellen in der Vertex AI Model Registry oder von vorab generierten Inferenzen bewertet werden. Bei AutoSxS wird ein Autorater verwendet, um zu entscheiden, welches Modell die bessere Antwort auf einen Prompt liefert. AutoSxS ist bei Bedarf verfügbar und bewertet Sprachmodelle mit einer Leistung, die mit der von menschlichen Prüfern vergleichbar ist.
-
AutoML
- Machine-Learning-Algorithmen, die durch Blackbox-Optimierung „lernen zu lernen“. Weitere Informationen finden Sie im Glossar zu maschinellem Lernen.
-
Automatisches Logging
- Autologging ist ein Feature in Plattformen und Bibliotheken für maschinelles Lernen, mit dem wichtige Messwerte, Parameter und Artefakte während des Modelltrainings automatisch protokolliert werden, ohne dass eine explizite Codeinstrumentierung erforderlich ist. Es vereinfacht die Nachverfolgung von Tests, indem Informationen wie Hyperparameter, Bewertungsmetriken (z. B. Genauigkeit, Verlust) und Modell-Checkpoints automatisch erfasst werden. So können Entwickler Tests einfach vergleichen und reproduzieren.
-
autorater
- Ein Autorater ist ein Sprachmodell, das die Qualität der Modellantworten anhand eines ursprünglichen Inferenz-Prompts bewertet. Sie wird in der AutoSxS-Pipeline verwendet, um die Inferenz von zwei Modellen zu vergleichen und zu ermitteln, welches Modell die beste Leistung erbracht hat. Weitere Informationen finden Sie unter Automatische Bewertung.
-
Autoscaling
- Autoscaling ist die Fähigkeit einer Computeressource, z. B. des Worker-Pools eines Ray-Clusters, die Anzahl der Knoten automatisch an die Arbeitslastanforderungen anzupassen, um die Ressourcennutzung und die Kosten zu optimieren. Weitere Informationen finden Sie unter Ray-Cluster in Vertex AI skalieren: Autoscaling.
-
baseline
- Ein Modell, das als Referenzpunkt für den Vergleich der Leistung eines anderen Modells (in der Regel eines komplexeren) verwendet wird. Ein logistisches Regressionsmodell kann beispielsweise eine gute Baseline für ein Deep-Learning-Modell sein. Für ein bestimmtes Problem hilft die Baseline den Modellentwicklern, die minimale erwartete Leistung zu quantifizieren, die ein neues Modell erreichen muss, damit es nützlich ist. Weitere Informationen finden Sie unter Baseline- und Ziel-Datasets.
-
Batch
- Die Menge der Beispiele, die in einer Trainingsiteration verwendet werden. Die Batchgröße bestimmt die Anzahl der Beispiele in einem Batch.
-
Batchgröße
- Die Anzahl der Beispiele in einem Batch. Die Batchgröße von SGD ist beispielsweise 1, während die Batchgröße eines Minibatches in der Regel zwischen 10 und 1.000 liegt. Die Batchgröße ist während des Trainings und der Inferenz in der Regel festgelegt. TensorFlow erlaubt jedoch dynamische Batchgrößen.
-
Batchinferenz
- Die Batchinferenz gibt für eine Gruppe von Inferenzanfragen und -ausgaben die Ergebnisse in einer einzelnen Datei aus. Weitere Informationen finden Sie unter Überblick: Inferenz in Vertex AI abrufen.
-
Bias
- 1. Stereotypisierung, Vorurteile oder Bevorzugung bestimmter Dinge, Personen oder Gruppen gegenüber anderen. Diese Verzerrungen können sich auf die Erhebung und Interpretation von Daten, das Design eines Systems und die Interaktion von Nutzern mit einem System auswirken. 2. Systematischer Fehler, der durch ein Sampling- oder Reportingverfahren eingeführt wird.
-
bidrectional
- Ein Begriff, der ein System beschreibt, das den Text bewertet, der sowohl vor als auch nach einem Zielabschnitt des Texts steht. Bei einem unidirektionalen System wird dagegen nur der Text ausgewertet, der einem Zielabschnitt des Texts vorangeht.
-
Bidirectional Encoder Representations from Transformers (BERT)
- BERT ist eine Methode zur Sprachdarstellung vor dem Training. Das bedeutet, dass wir ein Allzweckmodell für das „Sprachverständnis“ mit einem großen Textkorpus (z. B. Wikipedia) trainieren und dieses Modell dann für nachgelagerte NLP-Aufgaben verwenden, die uns wichtig sind (z. B. Question Answering). BERT übertrifft frühere Methoden, da es das erste unbeaufsichtigte, zutiefst bidirektionale System für das Vortraining von NLP ist.
-
BigQuery
- BigQuery ist ein vollständig verwaltetes, serverloses und hoch skalierbares Data Warehouse für Unternehmen von Google Cloud, das für die Analyse umfangreicher Datasets mit SQL-Abfragen in unglaublich hoher Geschwindigkeit entwickelt wurde. BigQuery ermöglicht leistungsstarke Business Intelligence und Analysen, ohne dass Nutzer eine Infrastruktur verwalten müssen. Weitere Informationen finden Sie unter Vom Data Warehouse zur autonomen Daten- und KI-Plattform.
-
BigQuery ML
- BigQuery ML ist ein Feature im BigQuery-Data Warehouse von Google Cloud, mit dem Datenanalysten und Data Scientists Machine-Learning-Modelle direkt in BigQuery mit Standard-SQL-Abfragen erstellen, trainieren und bereitstellen können. Dadurch müssen Daten nicht auf separate ML-Plattformen verschoben werden. Der Workflow für maschinelles Lernen wird vereinfacht und ML wird für SQL-Nutzer zugänglicher. Weitere Informationen finden Sie unter Modelle für maschinelles Lernen in BigQuery ML erstellen.
-
Bigtable
- Ein vollständig verwalteter NoSQL-Datenbankdienst, der auch als Speicheroption für Trainingsdaten bei der Verwendung von Vertex AI empfohlen wird. Weitere Informationen finden Sie in der Bigtable-Übersicht.
-
Bilingual Evaluation Understudy (BLEU)
- Ein beliebter Messwert zur Bewertung der Qualität eines Algorithmus für die maschinelle Übersetzung, indem seine Ausgabe mit der einer oder mehrerer menschlicher Übersetzungen verglichen wird.
-
Begrenzungsrahmen
- Ein Begrenzungsrahmen für ein Objekt im Videoframe kann auf zwei Arten angegeben werden (i) Mithilfe von zwei Eckpunkten, die aus einer Reihe von x- und y-Koordinaten bestehen, wenn sie diagonale gegenüberliegende Punkte des Rechtecks sind. Beispiel: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Mithilfe aller vier Eckpunkte. Weitere Informationen finden Sie unter Videodaten vorbereiten.
-
Bucket
- Ordner der obersten Ebene für Cloud Storage. Bucket-Namen müssen für alle Cloud Storage-Nutzer eindeutig sein. Buckets enthalten Dateien. Weitere Informationen finden Sie in der Produktübersicht zu Cloud Storage.
-
Chat
- Die Inhalte eines Dialogs mit einem ML-System, in der Regel einem Large Language Model. Die vorherige Interaktion in einem Chat (was Sie eingegeben haben und wie das Large Language Model reagiert hat) wird zum Kontext für die nachfolgenden Teile des Chats. Ein Chatbot ist eine Anwendung eines Large Language Model.
-
Checkpoint
- Daten, die den Status der Parameter eines Modells entweder während des Trainings oder nach Abschluss des Trainings erfassen. Während des Trainings können Sie beispielsweise: 1. Das Training wird beendet, möglicherweise absichtlich oder aufgrund bestimmter Fehler. 2. Erfassen Sie den Prüfpunkt. 3. Laden Sie den Prüfpunkt später neu, möglicherweise auf anderer Hardware. 4. Starte das Training neu. In Gemini bezieht sich ein Prüfpunkt auf eine bestimmte Version eines Gemini-Modells, das mit einem bestimmten Dataset trainiert wurde.
-
Klassifizierungsmodell
- Ein Modell, dessen Inferenz eine Klasse ist. Beispiele für Klassifizierungsmodelle: Ein Modell, das die Sprache eines Eingabesatzes vorhersagt (Französisch? Spanisch? Italienisch?). Ein Modell, das Baumarten vorhersagt (Ahorn? Eiche? Baobab?). Ein Modell, das die positive oder negative Klasse für einen bestimmten medizinischen Zustand vorhersagt.
-
Klassifizierungsmesswerte
- Unterstützte Klassifizierungsmesswerte im Vertex AI SDK für Python sind Wahrheitsmatrix und ROC-Kurve.
-
Cloud Logging
- Cloud Logging ist ein vollständig verwalteter Echtzeit-Logging-Dienst von Google Cloud, mit dem Sie Logs aus allen Ihren Google Cloud-Ressourcen, lokalen Anwendungen und sogar benutzerdefinierten Quellen erfassen, speichern, analysieren und überwachen können. Cloud Logging zentralisiert die Logverwaltung und erleichtert so die Fehlerbehebung, das Auditieren und das Nachvollziehen des Verhaltens und des Zustands Ihrer Anwendungen und Infrastruktur. Weitere Informationen finden Sie unter Cloud Logging – Übersicht.
-
Cloud Monitoring
- Cloud Monitoring ist eine umfassende Observability-Plattform von Google Cloud, die Messwerte, Logs und Ereignisse aus Google Cloud-Diensten, der lokalen Infrastruktur und Anwendungskomponenten erfasst und visualisiert. Nutzer erhalten Einblick in die Leistung, Verfügbarkeit und den Gesamtstatus ihrer Systeme und können so Probleme proaktiv erkennen, beheben und Benachrichtigungen einrichten. Weitere Informationen finden Sie unter Cloud Monitoring-Messwerte für Vertex AI.
-
Cloud Profiler
- Cloud Profiler ist ein kontinuierlicher Profiling-Dienst von Google Cloud, mit dem Sie den CPU- und Arbeitsspeicherverbrauch sowie die Nutzung anderer Ressourcen (z. B. Heap, Walltime, Konflikte) in Ihren Anwendungen ermitteln und analysieren können. Es werden automatisch Profiling-Daten aus Ihren Produktionsanwendungen mit minimalem Aufwand erfasst. So können Sie Leistungsengpässe in verschiedenen Diensten visualisieren und nachvollziehen und Ihren Code optimieren, um die Effizienz zu steigern und die Kosten zu senken. Weitere Informationen finden Sie unter Cloud Profiler – Übersicht.
-
Cloud Storage
- Der skalierbare und sichere Objektspeicherdienst von Google Cloud wird für die Speicherung großer Datasets empfohlen, die für das Training und die Überprüfung mit Vertex AI verwendet werden, um eine optimale Leistung zu erzielen. Weitere Informationen finden Sie in der Cloud Storage-Dokumentation.
-
Cloud TPU
- Ein spezieller Hardwarebeschleuniger, der entwickelt wurde, um Arbeitslasten für maschinelles Lernen in Google Cloud zu beschleunigen.
-
Colab Enterprise
- Colab Enterprise ist eine kollaborative, verwaltete Jupyter-Notebook-Umgebung, die die beliebte Google Colab-Benutzerfreundlichkeit in Google Cloud bietet und Sicherheits- und Compliance-Funktionen auf Unternehmensniveau bietet. Colab Enterprise bietet eine Notebook-zentrierte Umgebung ohne Konfiguration, in der Rechenressourcen von Vertex AI verwaltet werden. Außerdem ist es in andere Google Cloud-Dienste wie BigQuery eingebunden. Weitere Informationen finden Sie unter Einführung in Colab Enterprise.
-
Container-Image
- Ein Container-Image ist ein Paket, das den ausführbaren Code der Komponente und eine Definition der Umgebung enthält, in der der Code ausgeführt wird. Weitere Informationen zum benutzerdefinierten Training
-
context
- Mit einem Kontext werden Artefakte und Ausführungen in einer einzigen, abfragbaren und typisierten Kategorie zusammengefasst. Kontexte können zur Darstellung von Metadaten verwendet werden. Ein Beispiel für einen Kontext wäre die Ausführung einer Pipeline für maschinelles Lernen.
-
Kontextcache
- Ein Kontext-Cache in Vertex AI enthält eine große Datenmenge, die Sie in verschiedenen Anfragen an ein Gemini-Modell verwenden können. Der im Cache gespeicherte Inhalt wird in der Region gespeichert, in der die Anfrage zum Erstellen des Caches gestellt wird. Es kann sich um einen beliebigen MIME-Typ handeln, der von multimodalen Gemini-Modellen unterstützt wird, z. B. Text, Audio oder Video. Weitere Informationen finden Sie unter Kontext-Caching – Übersicht.
-
Kontextfenster
- Die Anzahl der Tokens, die ein Modell in einem bestimmten Prompt verarbeiten kann. Je größer das Kontextfenster ist, desto mehr Informationen kann das Modell verwenden, um kohärente und konsistente Antworten auf den Prompt zu geben.
-
Vom Kunden verwaltete Verschlüsselungsschlüssel (Customer Managed Encryption Keys, CMEK)
- Vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) sind Integrationen, mit denen Kunden Daten in vorhandenen Google-Diensten mit einem Schlüssel verschlüsseln können, den sie in Cloud KMS (alias Storky) verwalten. Der Schlüssel in Cloud KMS ist der Schlüsselverschlüsselungsschlüssel, der seine Daten schützt. Weitere Informationen finden Sie unter Vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK).
-
CustomJob
- Ein CustomJob ist eine von drei Vertex AI-Ressourcen, die ein Nutzer zum Trainieren benutzerdefinierter Modelle in Vertex AI erstellen kann. Benutzerdefinierte Trainingsjobs stellen den grundlegenden Weg dar, um benutzerdefinierten Trainingscode für maschinelles Lernen (ML) in Vertex AI auszuführen. Weitere Informationen finden Sie unter Benutzerdefinierte Trainingsjobs erstellen.
-
Benutzerdefiniertes Container-Image
- Ein benutzerdefiniertes Container-Image ist ein eigenständiges, ausführbares Paket, das den Anwendungscode des Nutzers, die Laufzeit, Bibliotheken, Abhängigkeiten und die Umgebungskonfiguration enthält. Im Kontext von Google Cloud, insbesondere Vertex AI, ermöglicht es dem Nutzer, seinen Code für das Training von Machine-Learning-Modellen oder seine Serving-Anwendung mit den genauen Abhängigkeiten zu verpacken. So wird die Reproduzierbarkeit gewährleistet und der Nutzer kann eine Arbeitslast in verwalteten Diensten mit bestimmten Softwareversionen oder eindeutigen Konfigurationen ausführen, die von Standardumgebungen nicht bereitgestellt werden. Weitere Informationen finden Sie unter Anforderungen an benutzerdefinierte Container für die Inferenz.
-
Benutzerdefiniertes Training
- Vertex AI Custom Training ist ein flexibler Dienst, mit dem Nutzer ihre eigenen benutzerdefinierten Trainingsanwendungen (Skripts oder Container) in der Google Cloud-Infrastruktur ausführen können. So haben sie die Kontrolle über Maschinentypen und Skalierung. Weitere Informationen zum benutzerdefinierten Training
-
Dask
- Dask ist eine Plattform für verteiltes Computing, die häufig mit TensorFlow, PyTorch und anderen ML-Frameworks verwendet wird, um verteilte Trainingsjobs zu verwalten. Weitere Informationen finden Sie auf Wikipedia.
-
Datenanalyse
- Daten anhand von Stichproben, Messungen und Visualisierungen verstehen Die Datenanalyse kann besonders nützlich sein, wenn ein Datensatz zum ersten Mal empfangen wird, bevor das erste Modell erstellt wird. Außerdem ist es wichtig, um Tests zu verstehen und Probleme mit dem System zu beheben.
-
Datenaugmentation
- Die Bandbreite und Anzahl der Trainingsbeispiele wird künstlich erhöht, indem vorhandene Beispiele transformiert werden, um zusätzliche Beispiele zu erstellen. Angenommen, Bilder sind eines Ihrer Features, aber Ihr Dataset enthält nicht genügend Bildbeispiele, damit das Modell nützliche Assoziationen lernen kann. Im Idealfall fügen Sie Ihrem Dataset genügend Bilder mit Labels hinzu, damit Ihr Modell richtig trainiert werden kann. Wenn das nicht möglich ist, kann durch Data Augmentation jedes Bild gedreht, gestreckt und gespiegelt werden, um viele Varianten des Originalbilds zu erzeugen. So erhalten Sie möglicherweise genügend gelabelte Daten für ein hervorragendes Training.
-
DataFrame
- Ein beliebter Pandas-Datentyp zur Darstellung von Datasets im Arbeitsspeicher. Ein DataFrame ist analog zu einer Tabelle oder einer Tabellenkalkulation. Jede Spalte eines DataFrames hat einen Namen (eine Überschrift) und jede Zeile wird durch eine eindeutige Nummer identifiziert. Jede Spalte in einem DataFrame ist wie ein zweidimensionales Array strukturiert, wobei jeder Spalte ein eigener Datentyp zugewiesen werden kann.
-
Dataset
- Ein Dataset ist allgemein als eine Sammlung strukturierter oder unstrukturierter Datensätze definiert. Eine Sammlung von Rohdaten, die in der Regel (aber nicht ausschließlich) in einem der folgenden Formate organisiert sind: eine Tabelle, eine Datei im CSV-Format (Comma Separated Values, kommagetrennte Werte). Weitere Informationen finden Sie unter Dataset erstellen.
-
Decoder
- Im Allgemeinen jedes ML-System, das eine konvertierte, dichte oder interne Darstellung in eine rohere, spärliche oder externe Darstellung umwandelt. Decoder sind oft Bestandteil eines größeren Modells, in dem sie häufig mit einem Encoder kombiniert werden. Bei Sequence-to-Sequence-Aufgaben beginnt ein Decoder mit dem vom Encoder generierten internen Status, um die nächste Sequenz vorherzusagen.
-
Neuronales Deep-Learning-Netzwerk (DNN)
- Ein neuronales Netzwerk mit mehreren verborgenen Schichten, das in der Regel durch Deep-Learning-Techniken programmiert wird.
-
Tiefe
- Die Summe der folgenden Elemente in einem neuronalen Netzwerk: 1. Anzahl der verborgenen Schichten, 2. Anzahl der Ausgabeschichten (in der Regel eine) und 3. Anzahl der Einbettungsschichten. Ein neuronales Netzwerk mit fünf verborgenen Schichten und einer Ausgabeschicht hat beispielsweise eine Tiefe von 6. Die Eingabeschicht hat keinen Einfluss auf die Tiefe.
-
DevOps
- DevOps ist eine Suite von Google Cloud-Produkten, z. B. Artifact Registry und Cloud Deploy.
-
Vorzeitiges Beenden
- Eine Methode zur Regularisierung, bei der das Training beendet wird, bevor der Trainingsverlust nicht mehr abnimmt. Beim vorzeitigen Beenden wird das Training des Modells absichtlich beendet, wenn der Verlust in einem Validierungs-Dataset zu steigen beginnt, d. h. wenn sich die Generalisierungsleistung verschlechtert.
-
Einbettung
- Numerische Darstellungen von Wörtern oder Textabschnitten. Diese Zahlen erfassen die semantische Bedeutung und den Kontext des Texts. Ähnliche oder verwandte Wörter oder Text haben in der Regel ähnliche Einbettungen. Das bedeutet, dass sie im hochdimensionalen Vektorbereich näher beieinander liegen.
-
Einbettungsbereich (latenter Raum)
- In der generativen KI bezieht sich der Einbettungsbereich auf eine numerische Darstellung von Text, Bildern oder Videos, die Beziehungen zwischen Eingaben erfasst. Modelle für maschinelles Lernen, insbesondere generative KI-Modelle, sind in der Lage, diese Einbettungen zu erstellen, indem sie Muster in großen Datasets erkennen. Anwendungen können Einbettungen verwenden, um Sprache zu verarbeiten und zu generieren und dabei komplexe Bedeutungen und semantische Beziehungen zu erkennen, die für die Inhalte spezifisch sind.
-
Einbettungsvektor
- Eine dichte, oft niedrigdimensionale Vektordarstellung eines Elements. Wenn zwei Elemente semantisch ähnlich sind, befinden sich ihre jeweiligen Einbettungen im Einbettungsvektorbereich nahe beieinander.
-
Encoder
- Im Allgemeinen jedes ML-System, das eine rohe, spärliche oder externe Darstellung in eine verarbeitete, dichtere oder internere Darstellung umwandelt. Encoder sind oft eine Komponente eines größeren Modells, in dem sie häufig mit einem Decoder kombiniert werden. Bei einigen Transformer-Modellen werden Encoder mit Decodern kombiniert, bei anderen wird nur der Encoder oder nur der Decoder verwendet. Bei einigen Systemen wird die Ausgabe des Encoders als Eingabe für ein Klassifizierungs- oder Regressionsnetzwerk verwendet. Bei Sequence-to-Sequence-Aufgaben nimmt ein Encoder eine Eingabesequenz entgegen und gibt einen internen Status (einen Vektor) zurück. Der Decoder verwendet diesen internen Status dann, um die nächste Sequenz vorherzusagen.
-
Endpunkt
- Ressourcen, auf denen Sie trainierte Modelle bereitstellen können, um Inferenzen zu berechnen. Weitere Informationen finden Sie unter Endpunkttyp auswählen.
-
Ensemble
- Eine Sammlung von Modellen, die unabhängig voneinander trainiert wurden und deren Inferenzwerte gemittelt oder aggregiert werden. In vielen Fällen liefert ein Ensemble bessere Vorhersagen als ein einzelnes Modell. Ein Random Forest ist beispielsweise ein Ensemble, das aus mehreren Entscheidungsbäumen besteht. Nicht alle Entscheidungsbäume sind Ensembles.
-
Umgebung
- In der Reinforcement-Learning-Umgebung, in der sich der Agent befindet und in der er den Status der Umgebung beobachten kann. Die dargestellte Welt kann beispielsweise ein Spiel wie Schach oder eine physische Welt wie ein Labyrinth sein. Wenn der Agent eine Aktion auf die Umgebung anwendet, wechselt die Umgebung zwischen den Zuständen.
-
evaluation (eval)
- Ein Eval (kurz für „Evaluation“) ist ein Test, bei dem protokollierte oder synthetische Anfragen durch zwei Suchstacks gesendet werden: einen Teststack, der Ihre Änderung enthält, und einen Basisstack ohne Ihre Änderung. Mit Evals werden Unterschiede und Messwerte generiert, mit denen Sie die Auswirkungen, die Qualität und andere Effekte Ihrer Änderung auf Suchergebnisse und andere Bereiche der Google-Nutzererfahrung bewerten können. Evals werden während des Tunings oder der Iterationen Ihrer Änderung verwendet. Sie werden auch verwendet, um eine Änderung am Live-Nutzer-Traffic einzuführen.
-
Ereignis
- Ein Ereignis beschreibt die Beziehung zwischen Artefakten und Ausführungen. Jedes Artefakt kann von einer Ausführung erstellt und von anderen Ausführungen genutzt werden. Anhand von Ereignissen können Sie die Herkunft von Artefakten in ihren ML-Workflows ermitteln, indem Artefakte und Ausführungen verkettet werden.
-
Ausführung
- Eine Ausführung ist ein Datensatz eines einzelnen Workflows für maschinelles Lernen, der normalerweise mit seinen Laufzeitparametern annotiert ist. Beispiele für Ausführungen sind Datenaufnahme, Datenvalidierung, Modelltraining, Modellbewertung und Modellbereitstellung.
-
Test
- Ein Test ist ein Kontext, der eine Reihe von n Testausführungen zusätzlich zu Pipeline-Ausführungen enthalten kann, in denen ein Nutzer als Gruppe verschiedene Konfigurationen wie Eingabeartefakte oder Hyperparameter untersuchen kann.
-
Testausführung
- Eine bestimmte, nachverfolgbare Ausführung in einem Vertex AI-Test, bei der Eingaben (z. B. Algorithmus, Parameter und Datasets) und Ausgaben (z. B. Modelle, Checkpoints und Messwerte) protokolliert werden, um ML-Entwicklungsiterationen zu überwachen und zu vergleichen. Weitere Informationen finden Sie unter Testläufe erstellen und verwalten.
-
Explainable AI
- Ein Feature von Vertex AI, das Tools und Funktionen zum Verstehen und Interpretieren von Inferenzen bietet, die von ML-Modellen erstellt werden. Es bietet Einblicke in die Feature-Wichtigkeit und das Modellverhalten. Weitere Informationen finden Sie unter Einführung in Vertex Explainable AI.
-
Explorative Datenanalyse
- In der Statistik ist die explorative Datenanalyse (EDA) ein Ansatz zur Analyse von Datasets, um ihre Hauptmerkmale zusammenzufassen, oft mit visuellen Methoden. Optional kann ein statistisches Modell verwendet werden. EDA dient aber hauptsächlich dazu, zu sehen, was uns die Daten über die formalen Modellierungs- oder Hypothesentestaufgaben hinaus sagen können.
-
F1-Wert
- Der F1-Wert ist ein Messwert, mit dem die Genauigkeit der Ausgabe eines Modells bewertet wird. Das ist besonders nützlich, um die Leistung von Modellen bei Aufgaben zu bewerten, bei denen sowohl Precision als auch Recall wichtig sind, z. B. bei der Informationsextraktion. Bei generativen KI-Modellen kann der F1-Wert verwendet werden, um die Inferenz des Modells mit Ground-Truth-Daten zu vergleichen und die Genauigkeit des Modells zu bestimmen. Für generative Aufgaben wie Zusammenfassung und Textgenerierung sind jedoch möglicherweise andere Messwerte wie der Rough-L-Score besser geeignet.
-
Feature
- Beim maschinellen Lernen (ML) ist ein Feature ein Merkmal oder Attribut einer Instanz oder Entität, das als Eingabe zum Trainieren eines ML-Modells oder für Inferenzen verwendet wird.
-
Feature Engineering
- Feature Engineering ist der Prozess der Umwandlung von Rohdaten des maschinellen Lernens (ML) in Features, die zum Trainieren von ML-Modellen oder für Inferenzen verwendet werden können.
-
Featuregruppe
- Eine Featuregruppe ist eine Ressource der Feature-Registry, die einer BigQuery-Quelltabelle oder ‑ansicht mit Featuredaten entspricht. Eine Feature-Ansicht kann Features enthalten und als logische Gruppierung von Featurespalten in der Datenquelle betrachtet werden.
-
Feature-Datensatz
- Ein Feature-Datensatz ist eine Aggregation aller Featurewerte, die die Attribute einer eindeutigen Entität zu einem bestimmten Zeitpunkt beschreiben.
-
Feature Registry
- Ein Feature Registry ist eine zentrale Schnittstelle zum Erfassen von Feature-Datenquellen, die Sie für Onlineinferenzen bereitstellen möchten. Weitere Informationen finden Sie unter Feature Registry einrichten.
-
Bereitstellung von Features
- Das Bereitstellen von Features ist der Export oder das Abrufen von Featurewerten für Training oder Inferenz. In Vertex AI gibt es zwei Arten der Bereitstellung von Features: Onlinebereitstellung und Offlinebereitstellung. Bei der Onlinebereitstellung werden die neuesten Featurewerte einer Teilmenge der Featuredatenquelle für Onlineinferenzen abgerufen. Bei der Offline- oder Batchbereitstellung werden große Mengen von Featuredaten, einschließlich Verlaufsdaten, für die Offlineverarbeitung exportiert, z. B. für das ML-Modelltraining.
-
Feature-Zeitstempel
- Ein Feature-Zeitstempel gibt an, wann die Gruppe von Featurewerten in einem bestimmten Feature-Datensatz für eine Entität generiert wurde.
-
Featurewert
- Ein Featurewert entspricht dem tatsächlichen und messbaren Wert eines Features (Attributs) einer Instanz oder Entität. Eine Sammlung von Featurewerten für die eindeutige Entität stellt den Feature-Datensatz dar, der der Entität entspricht.
-
Featureansicht
- Eine Featureansicht ist eine logische Sammlung von Features, die aus einer BigQuery-Datenquelle in eine Onlinespeicher-Instanz materialisiert werden. In einer Featureansicht werden die Featuredaten des Kunden gespeichert und regelmäßig aktualisiert. Die Daten werden regelmäßig aus der BigQuery-Quelle aktualisiert. Eine Featureansicht ist dem Featuredatenspeicher entweder direkt oder über Verknüpfungen zu Feature Registry-Ressourcen zugeordnet.
-
Foundation Model (FM)
- Modelle, die mit umfangreichen Daten trainiert werden, sodass sie an eine Vielzahl von Downstream-Aufgaben angepasst (z. B. feinabgestimmt) werden können.
-
Foundation Model Operations (FMOPs)
- FMOps erweitert die Funktionen von MLOps und konzentriert sich auf die effiziente Produktion von vortrainierten (von Grund auf trainierten) oder benutzerdefinierten (abgestimmten) FMs.
-
SDK für Google Cloud Pipeline-Komponenten
- Das Google Cloud Pipeline Components (GCPC) SDK bietet eine Reihe vordefinierter Kubeflow Pipelines-Komponenten, die produktionsbereit, leistungsfähig und einfach zu verwenden sind. Mit Google Cloud-Pipeline-Komponenten können Sie ML-Pipelines in Vertex AI Pipelines und anderen mit Kubeflow Pipelines konformen Backends zur ML-Pipeline-Ausführung definieren und ausführen. Weitere Informationen finden Sie unter Einführung in Google Cloud-Pipeline-Komponenten.
-
Google Embedded Modem System (GEMS)
- GEMS ist ein Framework für eingebettete Software, das auf Modems ausgerichtet ist, sowie eine zugehörige Reihe von Entwicklungsworkflows und Infrastruktur. Die Kernvision von GEMS ist es, hochwertigen Modem-Systemcode mit hoher Wiederverwendbarkeit für viele Google-Geräte mit Modems bereitzustellen. Um diese umfassende Vision zu verwirklichen, bietet GEMS eine umfassende Umgebung für Entwickler, die aus den unten dargestellten wichtigen Bausteinen besteht.
-
Verlauf
- Der Vektor der partiellen Ableitungen in Bezug auf alle unabhängigen Variablen. Beim maschinellen Lernen ist der Gradient der Vektor der partiellen Ableitungen der Modellfunktion. Der Gradient zeigt in die Richtung des steilsten Anstiegs.
-
Diagramm
- Im Kontext von Vertex AI bezieht sich ein Graph auf eine Datenstruktur, die die Beziehungen zwischen Entitäten und ihren Attributen darstellt. Damit lassen sich komplexe Daten wie Wissensgraphen, soziale Netzwerke und Geschäftsprozesse modellieren und analysieren. Weitere Informationen finden Sie unter Einführung in Vertex ML Metadata.
-
Ground Truth (GT)
- „Ground Truth“ ist ein Begriff, der in verschiedenen Bereichen verwendet wird, um sich auf die absolute Wahrheit eines Entscheidungs- oder Messproblems zu beziehen, im Gegensatz zur Schätzung eines Systems. Beim maschinellen Lernen bezieht sich der Begriff „Ground Truth“ auf den Trainingssatz für Techniken des überwachten Lernens.
-
Heuristik
- Eine einfache und schnell umzusetzende Lösung für ein Problem. Beispiel: „Mit einer Heuristik haben wir eine Genauigkeit von 86% erreicht. Als wir auf ein neuronales Deep-Learning-Netzwerk umgestellt haben, stieg die Genauigkeit auf 98 %.“
-
Verborgene Schicht
- Eine Schicht in einem neuronalen Netzwerk zwischen der Eingabeschicht (den Features) und der Ausgabeschicht (der Inferenz). Jede verborgene Schicht besteht aus einem oder mehreren Neuronen. Ein tiefes neuronales Netzwerk enthält mehr als eine verborgene Schicht.
-
histogram
- Eine grafische Darstellung der Variation in einem Satz von Daten mithilfe von Balken. Ein Histogramm visualisiert Muster, die in einer einfachen Zahlentabelle schwer zu erkennen sind.
-
Hyperparameter
- Ein Hyperparameter ist eine Variable, die den Trainingsprozess eines Machine-Learning-Modells steuert. Dazu können Lernraten, Momentum-Werte im Optimierer und die Anzahl der Einheiten in der letzten verborgenen Schicht eines Modells gehören. Weitere Informationen finden Sie unter Übersicht zur Hyperparameter-Abstimmung.
-
Hyperparameter-Abstimmung
- Bei der Hyperparameter-Abstimmung in Vertex AI werden mehrere Tests einer Trainingsanwendung mit unterschiedlichen Werten für die ausgewählten Hyperparameter innerhalb von angegebenen Limits ausgeführt. Ziel ist es, die Hyperparameter-Einstellungen zu optimieren, um die Vorhersagegenauigkeit des Modells zu maximieren. Weitere Informationen finden Sie unter Übersicht zur Hyperparameter-Abstimmung.
-
Berechtigungen zur Identitäts- und Zugriffsverwaltung (Identity and Access Management, IAM)
- IAM-Berechtigungen (Identity and Access Management) sind spezifische, detaillierte Funktionen, die definieren, wer was mit welchen Google Cloud-Ressourcen tun darf. Sie werden Hauptkonten (z. B. Nutzern, Gruppen oder Dienstkonten) über Rollen zugewiesen und ermöglichen so eine präzise Steuerung des Zugriffs auf Dienste und Daten in einem Google Cloud-Projekt oder einer Organisation. Weitere Informationen finden Sie unter Zugriffssteuerung mit IAM.
-
Bilderkennung
- Bei der Bilderkennung werden Objekte, Muster oder Konzepte in einem Bild klassifiziert. Sie wird auch als Bildklassifizierung bezeichnet. Die Bilderkennung ist ein Teilbereich des maschinellen Lernens und der Computer Vision.
-
index
- Eine Sammlung von Vektoren, die gemeinsam für die Ähnlichkeitssuche bereitgestellt werden. Vektoren können einem Index hinzugefügt oder aus einem Index entfernt werden. Ähnlichkeitssuchanfragen werden für einen bestimmten Index ausgegeben und suchen über die Vektoren in diesem Index.
-
Inferenz
- Im Kontext der Vertex AI-Plattform bezieht sich die Inferenz auf den Prozess, bei dem Datenpunkte durch ein Modell für maschinelles Lernen geleitet werden, um eine Ausgabe zu berechnen, z. B. einen einzelnen numerischen Wert. Dieser Vorgang wird auch als „Operationalisieren eines ML-Modells“ oder „Überführen eines ML-Modells in die Produktion“ bezeichnet. Die Inferenz ist ein wichtiger Schritt im Workflow für maschinelles Lernen, da sie es ermöglicht, Modelle zu verwenden, um Rückschlüsse auf neue Daten zu ziehen. In Vertex AI kann die Inferenz auf verschiedene Arten durchgeführt werden, z. B. als Batchinferenz und als Onlineinferenz. Bei der Batchinferenz wird eine Gruppe von Inferenzanfragen ausgeführt und die Ergebnisse in einer Datei ausgegeben. Bei der Onlineinferenz sind Echtzeitinferenzen für einzelne Datenpunkte möglich.
-
Information Retrieval (IR)
- Das Abrufen von Informationen (Information Retrieval, IR) ist eine wichtige Komponente von Vertex AI Search. Dabei werden relevante Informationen aus einer großen Menge von Daten gesucht und abgerufen. Im Kontext von Vertex AI wird IR verwendet, um Dokumente aus einem Korpus basierend auf der Anfrage eines Nutzers abzurufen. Vertex AI bietet eine Reihe von APIs, mit denen Sie eigene RAG-Anwendungen (Retrieval Augmented Generation) oder eine eigene Suchmaschine erstellen können. Weitere Informationen finden Sie unter Vertex AI Search als Abruf-Backend mit RAG Engine verwenden.
-
Infrastructure as Code (IaC)
- Infrastruktur als Code Ein Ansatz zur Verwaltung der IT-Infrastruktur, bei dem Teams Dienste über Code verwalten und bereitstellen können. Mit IaC werden Konfigurationsdateien erstellt, die die Infrastrukturspezifikationen enthalten. So lässt sich die Infrastruktur einfacher skalieren.
-
Lernrate (Schrittgröße)
- Die Lernrate ist ein Hyperparameter, der zum Optimieren des Optimierungsprozesses eines Modells für maschinelles Lernen verwendet wird. Sie bestimmt die Schrittgröße, mit der das Modell seine Gewichte während des Trainings aktualisiert. Eine höhere Lernrate kann zu einer schnelleren Konvergenz führen, aber auch Instabilität oder Overfitting zur Folge haben. Umgekehrt kann eine niedrigere Lernrate zu einer langsameren Konvergenz führen, aber Overfitting verhindern. Weitere Informationen finden Sie unter Übersicht zur Hyperparameter-Abstimmung.
-
Verlust (Kosten)
- Ein Maß dafür, wie weit die Inferenz eines überwachten Modells während des Trainings von seinem Label entfernt ist. Mit einer Verlustfunktion wird der Verlust berechnet.
-
Machine Learning Metadata
- ML Metadata (MLMD) ist eine Bibliothek zum Aufzeichnen und Abrufen von Metadaten, die mit ML-Entwickler- und Data-Scientist-Workflows verknüpft sind. MLMD ist ein integraler Bestandteil von TensorFlow Extended (TFX), der jedoch so konzipiert ist, dass er unabhängig verwendet werden kann. Als Teil der größeren TFX-Plattform interagieren die meisten Nutzer nur mit MLMD, wenn sie die Ergebnisse von Pipelinekomponenten untersuchen, z. B. in Notebooks oder in TensorBoard.
-
Verwaltetes Dataset
- Ein Dataset-Objekt, das von Vertex AI erstellt und gehostet wird.
-
Manuelle Protokollierung
- Der Prozess, bei dem einem Trainingsskript explizit Code hinzugefügt wird (z. B. mit dem Vertex AI SDK für Python), um benutzerdefinierte Parameter, Messwerte und Artefakte für einen Vertex AI-Testlauf zu erfassen und zu protokollieren. Weitere Informationen finden Sie unter Übersicht zu Monitoring und Logging.
-
Manuelle Skalierung
- Manuelles Skalieren bezieht sich auf den Prozess, bei dem ein Nutzer oder Administrator die Anzahl der Rechenressourcen (z. B. virtuelle Maschinen, Container oder Server), die einer Anwendung oder einem Dienst zugewiesen sind, explizit und bewusst anpasst. Im Gegensatz zur automatischen Skalierung, bei der Ressourcen automatisch an die Nachfrage angepasst werden, erfordert die manuelle Skalierung einen direkten Eingriff, um Ressourcen bereitzustellen oder die Bereitstellung aufzuheben. Dies bietet eine präzise Steuerung, es fehlt jedoch die dynamische Reaktionsfähigkeit automatisierter Lösungen. Weitere Informationen finden Sie unter Ray-Cluster in Vertex AI skalieren: Manuelle Skalierung.
-
Metadaten-Ressourcen
- Vertex ML Metadata enthält ein diagrammähnliches Datenmodell zur Darstellung von Metadaten, die aus ML-Workflows erstellt und genutzt werden. Die Hauptkonzepte sind Artefakte, Ausführungen, Ereignisse und Kontexte.
-
MetadataSchema
- Ein MetadataSchema beschreibt das Schema für bestimmte Arten von Artefakten, Ausführungen oder Kontexten. MetadataSchemas werden verwendet, um die Schlüssel/Wert-Paare während der Erstellung der entsprechenden Metadata-Ressourcen zu validieren. Die Schemavalidierung wird nur für übereinstimmende Felder zwischen der Ressource und dem MetadataSchema durchgeführt. Typschemas werden mit OpenAPI-Schemaobjekten dargestellt, die mit YAML beschrieben werden sollten.
-
MetadataStore
- Ein MetadataStore ist der Container der obersten Ebene für Metadatenressourcen. MetadataStore ist regional und einem bestimmten Google Cloud-Projekt zugeordnet. In der Regel verwendet eine Organisation einen gemeinsam genutzten MetadataStore für Metadatenressourcen in jedem Projekt.
-
ML-Pipelines
- ML-Pipelines sind portable und skalierbare ML-Workflows, die auf Containern basieren.
-
model
- Alle Modelle, vortrainiert oder nicht. Im Allgemeinen ein mathematisches Konstrukt, das Eingabedaten verarbeitet und eine Ausgabe zurückgibt. Anders ausgedrückt: Ein Modell ist die Menge der Parameter und die Struktur, die ein System benötigt, um Rückschlüsse zu ziehen.
-
Modelldestillation (Wissensdestillation, Lehrer-Schüler-Modelle)
- Bei der Modelldestillation kann ein kleineres Schülermodell von einem größeren Lehrermodell lernen. Das Schüler-Modell wird so trainiert, dass es die Ausgabe des Lehrer-Modells imitiert. Anschließend kann es verwendet werden, um neue Daten zu generieren oder Rückschlüsse zu ziehen. Die Modelldestillation wird häufig verwendet, um große Modelle effizienter zu machen oder sie für Geräte mit begrenzten Ressourcen zugänglicher zu machen. Sie kann auch verwendet werden, um die Generalisierung von Modellen zu verbessern, indem Overfitting reduziert wird.
-
Modellbewertung
- Vertex AI Model Evaluation ist ein verwalteter Dienst auf der Vertex AI-Plattform von Google Cloud, mit dem Nutzer die Leistung und Qualität ihrer Modelle für maschinelles Lernen bewerten können. Es bietet Tools zum Generieren verschiedener Bewertungsstatistiken und ‑visualisierungen, mit denen der Nutzer nachvollziehen kann, wie gut seine Modelle funktionieren, potenzielle Verzerrungen erkennen und fundierte Entscheidungen zur Bereitstellung und Verbesserung von Modellen treffen kann. Weitere Informationen finden Sie unter Modellbewertung in Vertex AI.
-
Modellmonitoring
- Vertex AI Model Monitoring ist ein Dienst, der die Leistung bereitgestellter Modelle kontinuierlich bewertet, indem er Featureabweichungen und ‑drift in Vorhersageanfragen erkennt. So kann die Modellqualität im Laufe der Zeit aufrechterhalten werden. Weitere Informationen finden Sie unter Einführung in Vertex AI Model Monitoring.
-
Modellressourcenname
- Der Ressourcenname für ein
model
lautet:projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
. Sie finden die Modell-ID in der Cloud Console auf der Seite „Model Registry“.
- Der Ressourcenname für ein
-
Network File System (NFS)
- Ein Client-/Serversystem, mit dem Nutzer über ein Netzwerk auf Dateien zugreifen und sie so behandeln können, als befänden sie sich in einem lokalen Dateiverzeichnis. Weitere Informationen finden Sie unter NFS-Freigabe für benutzerdefiniertes Training bereitstellen.
-
Offlinespeicher
- Der Offlinespeicher ist eine Speichereinrichtung, in der aktuelle Featuredaten und Feature-Verlaufsdaten gespeichert werden, die normalerweise zum Trainieren von ML-Modellen verwendet werden. Ein Offlinespeicher enthält auch die neuesten Featurewerte, die Sie für Onlineinferenzen bereitstellen können.
-
Online-Inferenz
- Schlussfolgerungen zu einzelnen Instanzen synchron abrufen. Weitere Informationen finden Sie unter Online-Inferenz.
-
Onlinevorhersage
- Vorhersagen für einzelne Instanzen synchron abrufen. Weitere Informationen finden Sie unter Onlinevorhersage.
-
Onlinespeicher
- Bei der Featureverwaltung ist ein Onlinespeicher eine Speichereinrichtung für die neuesten Featurewerte, die für Onlineinferenzen bereitgestellt werden.
-
parameter
- Parameter sind Schlüsseleingabewerte, die eine Ausführung konfigurieren, das Verhalten der Ausführung steuern und die Ergebnisse der Ausführung beeinflussen. Beispiele sind die Lernrate, die Abbruchrate und die Anzahl der Trainingsschritte.
-
Nichtflüchtige Ressource
- Ein Typ von Vertex AI-Computing-Ressource, z. B. ein Ray-Cluster, der zugewiesen und verfügbar bleibt, bis er explizit gelöscht wird. Dies ist für die iterative Entwicklung von Vorteil und reduziert den Startaufwand zwischen Jobs. Weitere Informationen finden Sie unter Informationen zu einer nichtflüchtigen Ressource abrufen.
-
Pipeline
- ML-Pipelines sind portable und skalierbare ML-Workflows, die auf Containern basieren. Weitere Informationen finden Sie unter Einführung in Vertex AI Pipelines.
-
Pipeline-Komponente
- Ein eigenständiger Codesatz, der einen Schritt im Arbeitsablauf einer Pipeline ausführt, z. B. Datenvorverarbeitung, Datentransformation und Modelltraining.
-
Pipelinejob
- Ein Pipelinejob oder eine Pipelineausführung entspricht der PipelineJob-Ressource in der Vertex AI API. Sie ist eine Ausführungsinstanz Ihrer ML-Pipelinedefinition, die als eine Reihe von ML-Aufgaben definiert ist, die durch Ein-/Ausgabeabhängigkeiten miteinander verbunden sind.
-
Pipelineausführung
- Ein oder mehrere Vertex PipelineJobs können mit einem Test verknüpft werden, wobei jeder PipelineJob als einzelne Ausführung dargestellt wird. In diesem Kontext werden die Parameter der Ausführung von den Parametern des PipelineJobs abgeleitet. Die Messwerte werden aus den von diesem PipelineJob generierten system.Metric-Artefakten abgeleitet. Die Artefakte der Ausführung werden aus Artefakten abgeleitet, die von diesem PipelineJob erstellt werden.
-
Pipelinevorlage
- Eine ML-Workflow-Definition, die ein einzelner Nutzer oder mehrere Nutzer wiederverwenden können, um mehrere Pipelineausführungen zu erstellen.
-
positive Klasse
- Die „positive Klasse“ bezieht sich auf das Ergebnis oder die Kategorie, für die ein Modell trainiert wird. Wenn ein Modell beispielsweise vorhersagt, ob ein Kunde eine Jacke kaufen wird, wäre die positive Klasse „Kunde kauft eine Jacke“. Bei einem Modell, das vorhersagt, ob sich ein Kunde für Termingeld registriert, wäre die positive Klasse „Kunde hat sich registriert“. Das Gegenteil ist die „negative Klasse“.
-
Vordefinierter Container
- Von Vertex AI bereitgestellte Container-Images, in denen gängige ML-Frameworks und -Abhängigkeiten vorinstalliert sind, was die Einrichtung von Trainings- und Inferenzjobs vereinfacht. Weitere Informationen finden Sie unter Vordefinierte Container für benutzerdefiniertes Training .
-
Privater Google-Zugriff (Private Google Access, PGA)
- Der privater Google-Zugriff ermöglicht VM-Instanzen, die nur über interne (private) IP-Adressen (keine externen IP-Adressen) verfügen, den Zugriff auf die öffentlichen IP-Adressen von Google APIs und Diensten. Weitere Informationen finden Sie unter Privaten Google-Zugriff konfigurieren.
-
Zugriff auf private Dienste
- Der Zugriff auf private Dienste ist eine private Verbindung zwischen Ihrem Virtual Private Cloud-Netzwerk (VPC) und Netzwerken von Google oder Drittanbietern. Dadurch können VM-Instanzen in Ihrem VPC-Netzwerk über interne IP-Adressen mit diesen Diensten kommunizieren, ohne dem öffentlichen Internet ausgesetzt zu sein. Weitere Informationen finden Sie unter Zugriff auf private Dienste.
-
Private Service Connect (PSC)
- Private Service Connect ist eine Technologie, mit der Compute Engine-Kunden private IP-Adressen in ihrem Netzwerk entweder einem anderen VPC-Netzwerk oder Google APIs zuordnen können. Weitere Informationen finden Sie unter Private Service Connect.
-
Private Service Connect-Schnittstelle (PSC-I)
- Private Service Connect-Schnittstellen bieten Erstellern die Möglichkeit, Verbindungen zu beliebigen Netzwerkressourcen in der VPC des Nutzers privat zu initiieren.
-
Quantisierung
- Die Quantisierung ist eine Technik zur Modelloptimierung, mit der die Genauigkeit der Zahlen reduziert wird, die zur Darstellung der Parameter eines Modells verwendet werden. Das kann zu kleineren Modellen, einem geringeren Stromverbrauch und einer geringeren Inferenzlatenz führen.
-
Random Forest
- Random Forest ist ein Machine-Learning-Algorithmus, der sowohl für die Klassifizierung als auch für die Regression verwendet wird. Es ist nicht direkt ein generatives KI-Modell, sondern eine Komponente, die in einem größeren generativen KI-System verwendet werden kann. Ein Random Forest besteht aus mehreren Entscheidungsbäumen. Die Inferenz ist eine Aggregation der Inferenzen aus diesen einzelnen Bäumen. Bei einer Klassifizierungsaufgabe „stimmt“ beispielsweise jeder Baum für eine Klasse ab. Die endgültige Inferenz ist die Klasse mit den meisten Stimmen. Weitere Informationen finden Sie unter Decision forest.
-
Ray Client API (Ray Client)
- Der Ray-Client ist eine API, mit der ein lokales Python-Skript oder eine interaktive Shell (z. B. ein Jupyter-Notebook) eine Verbindung zu einem Remote-Ray-Cluster herstellen und mit diesem interagieren kann. Mit dem Ray-Client können Nutzer Ray-Code so entwickeln und ausführen, als würde der Code lokal ausgeführt, während tatsächlich die verteilte Rechenleistung eines Remote-Clusters genutzt wird. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
-
Ray-Cluster in Vertex AI
- Ein Ray-Cluster in Vertex AI ist ein verwalteter Cluster von Rechenknoten, der zum Ausführen von verteilten Anwendungen für maschinelles Lernen (ML) und Python verwendet werden kann. Es bietet die Infrastruktur für verteiltes Computing und parallele Verarbeitung für Ihren ML-Workflow. Ray-Cluster sind in Vertex AI integriert, um die Kapazitätsverfügbarkeit für kritische ML-Arbeitslasten oder während Spitzenzeiten zu gewährleisten. Im Gegensatz zu benutzerdefinierten Jobs, bei denen der Trainingsdienst die Ressource nach Abschluss des Jobs freigibt, bleiben Ray-Cluster bis zum Löschen verfügbar. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
-
Ray on Vertex AI (RoV)
- Ray on Vertex AI wurde so entwickelt, dass Sie denselben Open-Source-Ray-Code zum Schreiben von Programmen und Entwickeln von Anwendungen in Vertex AI mit minimalen Änderungen verwenden können. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
-
Ray on Vertex AI SDK für Python
- Das Ray on Vertex AI SDK für Python ist eine Version des Vertex AI SDK für Python, die die Funktionen von Ray Client, Ray BigQuery Connector, der Ray-Clusterverwaltung in Vertex AI und Inferenzen in Vertex AI umfasst. Weitere Informationen finden Sie unter Einführung in das Vertex AI SDK für Python.
-
Recall
- Der Prozentsatz der echten nächsten Nachbarn, die vom Index zurückgegeben werden. Wenn z. B. eine Abfrage nach 20 nächsten Nachbarn 19 der „grundlegend echten“ nächsten Nachbarn zurückgibt, beträgt der Recall 19/20x100 = 95 %.
-
Reduction Server
- Reduction Server ist eine Funktion oder Komponente, die in Vertex AI verfügbar ist und speziell für die Optimierung des verteilten GPU-Trainings entwickelt wurde. Reduction Server fungiert als All-Reduce-Algorithmus, der den Durchsatz erhöhen und die Latenz für das Training von Machine-Learning-Modellen im großen Maßstab reduzieren kann. Weitere Informationen finden Sie unter Trainingszeit mit Reduction Server reduzieren.
-
Regularisierung
- Die Regularisierung ist eine Technik, die verwendet wird, um eine Überanpassung in Modellen für maschinelles Lernen zu verhindern. Eine Überanpassung tritt auf, wenn ein Modell die Trainingsdaten zu gut lernt, was zu einer schlechten Leistung bei unbekannten Daten führt. Eine spezielle Art der Regularisierung ist das vorzeitige Beenden. Dabei wird das Training beendet, bevor der Verlust in einem Validierungs-Dataset zu steigen beginnt, was auf einen Rückgang der Generalisierungsleistung hindeutet. Weitere Informationen finden Sie unter Overfitting: L2-Regularisierung.
-
Einschränkungen
- Funktionen zum "Einschränken" von Suchanfragen auf eine Teilmenge des Index mithilfe von booleschen Regeln. „Einschränken“ wird auch als „Filter“ bezeichnet. Mit der Vektorsuche können Sie numerische Filter und Filter für Textattribute verwenden.
-
Dienstkonto
- Dienstkonten sind spezielle Google Cloud-Konten, die von Anwendungen oder virtuellen Maschinen verwendet werden, um autorisierte API-Aufrufe an Google Cloud-Dienste auszuführen. Im Gegensatz zu Nutzerkonten sind sie nicht an eine einzelne Person gebunden, sondern fungieren als Identität für Ihren Code. So ermöglichen sie einen sicheren und programmatischen Zugriff auf Ressourcen, ohne dass menschliche Anmeldedaten erforderlich sind. Weitere Informationen finden Sie unter Dienstkontenübersicht.
-
Dienst-Agent
- Ein Dienst-Agent bezieht sich auf ein von Google verwaltetes Dienstkonto. Sie wird verwendet, wenn ein Dienst Zugriff auf Ressourcen benötigt, die von einem anderen Dienst erstellt wurden. Das ist beispielsweise der Fall, wenn Dataflow- oder Dataproc-Dienste während der Laufzeit Instanzen erstellen müssen oder wenn eine Cloud Function den Key Management Service (KMS) zum Schutz der Cloud Function verwenden möchte. Dienst-Agents werden automatisch von Google Cloud erstellt, wenn ein Dienst sie benötigt. Sie werden in der Regel verwendet, um den Zugriff auf Ressourcen zu verwalten und verschiedene Aufgaben im Namen des Dienstes auszuführen. Weitere Informationen finden Sie unter Dienst-Agents.
-
Zusammenfassende Messwerte
- Zusammenfassende Messwerte sind ein einzelner Wert für jeden Messwertschlüssel in einer Testausführung. Beispiel: Die Testgenauigkeit eines Tests ist die Genauigkeit, die anhand eines Test-Datasets am Ende des Trainings berechnet wird und als einzelner zusammenfassender Messwert erfasst werden kann.
-
TensorBoard
- TensorBoard ist eine Suite von Webanwendungen zum Visualisieren und Analysieren von TensorFlow-Läufen und -Modellen. Weitere Informationen finden Sie unter TensorBoard.
-
TensorBoard-Instanz
- Eine TensorBoard-Instanz ist eine regionalisierte Ressource, in der Vertex AI TensorBoard-Tests gespeichert werden, die mit einem Projekt verknüpft sind. Sie können in einem Projekt mehrere TensorBoard-Instanzen erstellen, wenn Sie beispielsweise mehrere CMEK-fähige Instanzen benötigen. Dies entspricht der TensorBoard-Ressource in der API.
-
TensorBoard-Ressourcenname
- Ein TensorBoard-Ressourcenname wird verwendet, um eine Vertex AI TensorBoard-Instanz vollständig zu identifizieren. Das Format lautet: projects/PROJEKT-ID_ODER_-NUMBER/locations/REGION/tensorboards/TENSORBOARD-INSTANZ-ID.
-
TensorFlow Extended (TFX)
- TensorFlow Extended (TFX) ist eine End-to-End-Plattform zum Bereitstellen von ML-Pipelines für die Produktion basierend auf der TensorFlow-Plattform.
-
TensorFlow Serving-Container
- Ein spezielles Container-Image, das für die effiziente Bereitstellung von TensorFlow-Modellen für Inferenzzwecke entwickelt wurde. Es wird verwendet, wenn benutzerdefinierte tabellarische Modelle mit Vertex AI Model Monitoring bereitgestellt werden.
-
zeitlicher Versatz, Zeitstempel
- Der zeitliche Versatz bezieht sich auf den Beginn eines Videos.
-
Zeitsegment
- Ein Zeitsegment wird durch den zeitlichen Versatz am Beginn und Ende identifiziert.
-
Zeitachsenmesswerte
- Zeitachsenmesswerte sind Längengradmesswerte, wobei jeder Wert einen Schritt im Teil der Trainingsroutine einer Ausführung darstellt. Zeitachsenmesswerte werden in Vertex AI TensorBoard gespeichert. Vertex AI Experiments speichert einen Verweis auf die Vertex TensorBoard-Ressource.
-
Token
- Ein Token in einem Sprachmodell ist die atomare Einheit, die das Modell trainiert und auf der es Rückschlüsse zieht, nämlich Wörter, Morpheme und Zeichen. In anderen Bereichen als Sprachmodellen können Tokens andere Arten von atomaren Einheiten darstellen. Bei Computer Vision kann ein Token beispielsweise ein Teil eines Bildes sein. Weitere Informationen finden Sie unter Tokens auflisten und zählen.
-
Trainingscluster
- Ein Trainingscluster ist eine Gruppe von miteinander verbundenen Rechenressourcen (z. B. virtuelle Maschinen, GPUs und zugehöriger Speicher), die speziell für die verteilte Ausführung von Arbeitslasten für das Training von Machine-Learning-Modellen konfiguriert sind. Diese Cluster sind so konzipiert, dass sie die Rechenleistung und Skalierbarkeit bieten, die für das effiziente Trainieren komplexer Modelle erforderlich sind. Dabei wird häufig die parallele Verarbeitung auf mehreren Knoten genutzt. Weitere Informationen finden Sie unter Struktur des Trainingsclusters.
-
Trainingsdatensatz
- In Vertex AI ist der Trainingssatz der größte Teil Ihrer Daten (in der Regel 80%), der zum Trainieren eines Modells für maschinelles Lernen verwendet wird. Das Modell lernt die Muster und Beziehungen in diesen Daten, um Rückschlüsse zu ziehen. Das Trainings-Dataset unterscheidet sich von den Validierungs- und Test-Datasets, die zur Bewertung der Modellleistung während und nach dem Training verwendet werden.
-
Trajektorie
- Eine „Trajektorie“ bezieht sich auf eine Abfolge von Schritten oder Aktionen, die von einem Agent oder Modell ausgeführt werden. Sie wird häufig bei der Bewertung generativer Modelle verwendet, bei denen die Fähigkeit des Modells, Text, Code oder andere Inhalte zu generieren, bewertet wird. Es gibt verschiedene Arten von Messwerten für Trajektorien, mit denen generative Modelle bewertet werden können, darunter „Trajektorie – genaue Übereinstimmung“, „Trajektorie – Übereinstimmung in der richtigen Reihenfolge“, „Trajektorie – Übereinstimmung in beliebiger Reihenfolge“ und „Trajektorie – Genauigkeit“. Mit diesen Messwerten wird die Ähnlichkeit zwischen der Modellausgabe und einer Reihe von von Menschen erstellten Referenzausgaben gemessen.
-
Transformer
- Ein „Transformer“ ist eine Architektur für neuronale Netzwerke, die den meisten modernen generativen Modellen zugrunde liegt. Sie wird in verschiedenen Anwendungen für Sprachmodelle verwendet, z. B. für die Übersetzung. Transformer bestehen aus einem Encoder und einem Decoder. Der Encoder wandelt Eingabetext in eine Zwischenrepräsentation um und der Decoder wandelt diese in eine nützliche Ausgabe um. Sie nutzen einen Self-Attention-Mechanismus, um Kontext aus Wörtern zu erfassen, die das zu verarbeitende Wort umgeben. Das Trainieren eines Transformers erfordert zwar erhebliche Ressourcen, das Feinabstimmen eines vortrainierten Transformers für bestimmte Anwendungen ist jedoch effizienter.
-
richtig positiv
- Ein „richtig positives Ergebnis“ bezieht sich auf eine Inferenz, bei der das Modell eine positive Klasse richtig identifiziert. Wenn ein Modell beispielsweise trainiert wird, um Kunden zu identifizieren, die eine Jacke kaufen werden, wäre eine richtig-positive Vorhersage, dass ein Kunde einen solchen Kauf tätigen wird.
-
nicht verwaltete Artefakte
- Ein Artefakt außerhalb des Kontexts von Vertex AI.
-
vector
- Ein Vektor ist eine numerische Darstellung von Text, Bildern oder Videos, die Beziehungen zwischen Eingaben erfasst. Machine-Learning-Modelle eignen sich zum Erstellen von Einbettungen, da sie Muster in großen Datasets erkennen können. Anwendungen können Einbettungen verwenden, um Sprache zu verarbeiten und zu erzeugen und komplexe Bedeutungen und semantische Beziehungen zu erkennen, die für die Inhalte spezifisch sind. Weitere Informationen finden Sie in der Übersicht über Einbettungen-APIs.
-
Vertex AI-Datentyp
- Vertex AI-Datentypen sind "Bild", "Text", "Tabelle" und "Video".
-
Vertex AI Experiments
- Mit Vertex AI Experiments können Nutzer Folgendes erfassen: 1. Schritte einer Testausführung, z. B. Vorverarbeitung und Training. 2. Eingaben (z. B. Algorithmus, Parameter und Datasets). 3. Ausgaben dieser Schritte, z. B. Modelle, Prüfpunkte und Messwerte.
-
Vertex AI Model Registry
- Vertex AI Model Registry ist ein zentrales Repository, in dem Sie den Lebenszyklus Ihrer ML-Modelle verwalten können. Vertex AI Model Registry bietet eine Übersicht über Ihre Modelle, sodass Sie neue Versionen besser organisieren, verfolgen und trainieren können. Wenn Sie eine Modellversion haben, die Sie bereitstellen möchten, können Sie sie einem Endpunkt direkt aus der Registry zuweisen oder Modelle mithilfe von Aliassen auf einem Endpunkt bereitstellen. Weitere Informationen finden Sie unter Einführung in Vertex AI Model Registry.
-
Vertex AI SDK für Python
- Das Vertex AI SDK für Python bietet ähnliche Funktionen wie die Vertex AI Python-Clientbibliothek, mit der Ausnahme, dass das SDK auf höherer Ebene arbeitet und weniger detailliert ist.
-
Vertex AI TensorBoard
- Vertex AI TensorBoard ist ein verwalteter, skalierbarer Dienst in Google Cloud, mit dem Data Scientists und ML-Entwickler ihre ML-Tests visualisieren, das Modelltraining debuggen und Leistungsmesswerte über die vertraute Open-Source-TensorBoard-Oberfläche verfolgen können. Es lässt sich nahtlos in Vertex AI Training und andere Dienste einbinden und bietet persistenten Speicher für Versuchsdaten sowie die Möglichkeit zur gemeinsamen Analyse der Modellentwicklung. Weitere Informationen finden Sie unter Einführung in Vertex AI TensorBoard.
-
Vertex AI TensorBoard-Test
- Die mit einem Test verknüpften Daten (Skalare, Histogramme, Verteilungen usw.) können in der TensorBoard-Webanwendung angezeigt werden. Zeitreihenskalare können in der Google Cloud Console aufgerufen werden. Weitere Informationen finden Sie unter Läufe vergleichen und analysieren.
-
Vertex AI Feature Store
- Ein verwalteter Dienst zum Speichern, Bereitstellen und Verwalten von Features für maschinelles Lernen. Weitere Informationen finden Sie unter Vertex AI Feature Store.
-
Vertex ML Metadata
- Ein System zum Erfassen und Analysieren von Metadaten aus Workflows für maschinelles Lernen. Weitere Informationen finden Sie unter Einführung in Vertex ML Metadata.
-
Vertex AI Vizier
- Ein Blackbox-Optimierungsdienst zum Optimieren von Hyperparametern und anderen Parametern. Weitere Informationen finden Sie in der Übersicht zu Vertex AI Vizier.
-
Vertex AI Workbench
- Vertex AI Workbench ist eine einheitliche, Jupyter-Notebook-basierte Entwicklungsumgebung, die den gesamten Data-Science-Workflow unterstützt, von der Datenexploration und -analyse bis hin zur Modellentwicklung, zum Modelltraining und zur Modellbereitstellung. Vertex AI Workbench bietet eine verwaltete und skalierbare Infrastruktur mit integrierten Integrationen in andere Google Cloud-Dienste wie BigQuery und Cloud Storage. So können Data Scientists ihre Machine-Learning-Aufgaben effizient ausführen, ohne die zugrunde liegende Infrastruktur verwalten zu müssen. Weitere Informationen finden Sie unter Einführung in Vertex AI Workbench.
-
Videosegment
- Ein Videosegment wird durch den zeitlichen Versatz am Beginn und Ende eines Videos identifiziert.
-
Virtual Private Cloud (VPC)
- Eine Virtual Private Cloud ist ein konfigurierbarer Pool mit gemeinsam genutzten Computing-Ressourcen, der in einer öffentlichen Cloud-Umgebung zugewiesen wird und eine gewisse Isolation zwischen verschiedenen Organisationen bietet, die diese Ressourcen nutzen.
-
VPC Service Controls
- VPC Service Controls ist ein Sicherheitsfeature in Google Cloud, mit dem Organisationen sichere Perimeter für ihre vertraulichen Daten und Ressourcen erstellen können, um das Risiko einer Daten-Exfiltration zu minimieren. VPC Service Controls schränkt den Zugriff auf bestimmte Google Cloud-Dienste und ‑Daten aus nicht autorisierten Netzwerken ein und verhindert, dass Daten außerhalb dieser definierten Perimeter verschoben werden. So wird ein starker Schutz vor Insider-Bedrohungen und versehentlichem Datenverlust geboten. Weitere Informationen finden Sie unter VPC Service Controls.
-
Worker-Knoten
- Ein Worker-Knoten ist eine einzelne Maschine oder Recheninstanz in einem Cluster, die für die Ausführung von Aufgaben oder die Erledigung von Arbeiten zuständig ist. In Systemen wie Kubernetes- oder Ray-Clustern sind Knoten die Grundeinheiten für die Berechnung.
-
Worker-Pool
- Komponenten eines Ray-Clusters, die verteilte Aufgaben ausführen. Worker-Pools können mit bestimmten Maschinentypen konfiguriert werden und unterstützen sowohl Autoscaling als auch manuelle Skalierung. Weitere Informationen finden Sie unter Struktur des Trainingsclusters.