-
Annotationssatz
- Ein Annotationssatz enthält die Labels, die den hochgeladenen Quelldateien in einem Dataset zugeordnet sind. Ein Annotationssatz ist sowohl mit einem Datentyp als auch mit einem Ziel verknüpft (z. B. Video/Klassifizierung).
-
API-Endpunkte
- API-Endpunkte sind ein Dienstkonfigurationsaspekt, mit dem die Netzwerkadressen, auch Dienstendpunkte, angegeben werden (z. B. aiplatform.googleapis.com).
-
Standardanmeldedaten für Anwendungen (Application Default Credentials, ADC)
- Mit Standardanmeldedaten für Anwendungen können Sie ganz einfach Autorisierungsanmeldedaten für den Aufruf von Google APIs abrufen. Sie eignen sich am besten für Fälle, in denen der Aufruf unabhängig vom Nutzer dieselbe Identität und Autorisierungsstufe für die Anwendung haben muss. Dies ist die empfohlene Methode, um Aufrufe von Google Cloud APIs zu autorisieren, insbesondere wenn Sie eine Anwendung erstellen, die auf virtuellen Maschinen der Google App Engine (GAE) oder der Compute Engine bereitgestellt wird. Weitere Informationen finden Sie unter Funktionsweise von Standardanmeldedaten für Anwendungen.
-
Annäherung an den nächsten Nachbarn (ANN)
- Der ANN-Dienst (Approximate Nearest Neighbor) ist eine hochskalierbare Lösung mit niedriger Latenz, mit der ähnliche Vektoren (oder genauer gesagt „Einbettungen“) für einen großen Korpus gefunden werden können. Weitere Informationen finden Sie unter Vektorsuche für semantisches Matching verwenden.
-
artifact
- Ein Artefakt ist eine einzelne Entität oder ein Datenelement, das von einem ML-Workflow erzeugt und genutzt wird. Beispiele für Artefakte sind Datasets, Modelle, Eingabedateien und Trainingslogs.
-
Artifact Registry
- Artifact Registry ist ein universeller Artefaktverwaltungsdienst. Dies ist der empfohlene Dienst zum Verwalten von Containern und anderen Artefakten in Google Cloud. Weitere Informationen finden Sie unter Artifact Registry.
-
Künstliche Intelligenz (KI)
- Künstliche Intelligenz (KI) ist die Erforschung und Entwicklung von Maschinen, die intelligent erscheinen, d. h. die menschliche oder intellektuelle Funktionen wie mechanische Bewegung, Vernunft oder Problemlösung nachahmen. Eines der beliebtesten Teilgebiete der KI ist maschinelles Lernen, bei dem ein statistischer und datengestützter Ansatz zur Erstellung von KI verwendet wird. Einige Personen verwenden diese beiden Begriffe jedoch synonym.
-
authentication
- Der Prozess der Überprüfung der Identität eines Clients (z. B. eines Nutzers oder eines anderen Prozesses), um auf ein gesichertes System zuzugreifen. Ein Client, der seine Identität nachgewiesen hat, wird als authentifiziert bezeichnet. Weitere Informationen finden Sie unter Authentifizierungsmethoden bei Google.
-
AutoML
- Algorithmen für maschinelles Lernen, die durch Blackbox-Optimierung „lernen, zu lernen“. Weitere Informationen finden Sie im Glossar zu KI.
-
baseline
- Ein Modell, das als Referenzpunkt dient, um die Leistung eines anderen Modells (in der Regel eines komplexeren) zu vergleichen. Ein logistisches Regressionsmodell kann beispielsweise als gute Baseline für ein Deep-Learning-Modell dienen. Für ein bestimmtes Problem hilft die Baseline den Modellentwicklern, die minimale erwartete Leistung zu quantifizieren, die ein neues Modell erreichen muss, damit es nützlich ist. Weitere Informationen finden Sie unter Baseline- und Ziel-Datasets.
-
batch
- Die Beispiele, die in einer Trainingsiteration verwendet werden. Die Batchgröße bestimmt die Anzahl der Beispiele in einem Batch.
-
Batchgröße
- Die Anzahl der Beispiele in einem Batch. Die Batchgröße von SGD beträgt beispielsweise 1, während die Batchgröße eines Mini-Batches in der Regel zwischen 10 und 1.000 liegt. Die Batchgröße ist beim Training und bei der Inferenz in der Regel festgelegt. In TensorFlow sind jedoch dynamische Batchgrößen zulässig.
-
Batchvorhersage
- Die Batchvorhersage gibt für eine Gruppe von Vorhersageanfragen und -ausgaben die Ergebnisse in einer einzelnen Datei aus. Weitere Informationen finden Sie unter Batchvorhersagen abrufen.
-
Voreingenommenheit
- 1. Stereotypisierung, Vorurteile oder Bevorzugung bestimmter Dinge, Personen oder Gruppen gegenüber anderen. Diese Verzerrungen können sich auf die Erhebung und Interpretation von Daten, das Design eines Systems und die Interaktion der Nutzer mit einem System auswirken. 2. Systematischer Fehler, der durch Stichprobenerhebung oder Berichterstellung verursacht wird.
-
bidiretional
- Ein Begriff, der ein System beschreibt, das den Text vor und nach einem Zieltextabschnitt auswertet. Ein einseitiges System hingegen bewertet nur den Text, der einem Zieltextabschnitt vorausgeht.
-
Bidirectional Encoder Representations from Transformers (BERT)
- BERT ist eine Methode zur Sprachdarstellung vor dem Training. Das bedeutet, dass wir ein allgemeines Modell zum Verstehen von Sprache mit einem großen Textkorpus (z. B. Wikipedia) trainieren und dann dieses Modell für wichtige nachfolgende NLP-Aufgaben (z. B. Fragebeantwortung) verwenden. BERT übertrifft bisherige Methoden, da es das erste unüberwachte, tiefe bidirektionale System für das Vortraining von NLP ist.
-
Bilingual Evaluation Understudy (BLEU)
- Ein beliebter Messwert zur Bewertung der Qualität eines Algorithmus für die maschinelle Übersetzung, bei dem die Ausgabe mit einer oder mehreren menschlichen Übersetzungen verglichen wird.
-
Begrenzungsrahmen
- Ein Begrenzungsrahmen für ein Objekt im Videoframe kann auf zwei Arten angegeben werden (i) Mithilfe von zwei Eckpunkten, die aus einer Reihe von x- und y-Koordinaten bestehen, wenn sie diagonale gegenüberliegende Punkte des Rechtecks sind. Beispiel: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Mithilfe aller vier Eckpunkte. Weitere Informationen finden Sie unter Videodaten vorbereiten.
-
Bucket
- Ordner der obersten Ebene für Cloud Storage. Bucket-Namen müssen für alle Cloud Storage-Nutzer eindeutig sein. Buckets enthalten Dateien. Weitere Informationen finden Sie unter Produktübersicht von Cloud Storage.
-
chat
- Der Inhalt eines Dialogs mit einem ML-System, in der Regel einem Large Language Model. Die vorherige Interaktion in einem Chat (was Sie eingegeben haben und wie das Large Language Model geantwortet hat) wird zum Kontext für nachfolgende Teile des Chats. Ein Chatbot ist eine Anwendung eines Large Language Models.
-
checkpoint
- Daten, die den Status der Parameter eines Modells entweder während des Trainings oder nach Abschluss des Trainings erfassen. Während des Trainings können Sie beispielsweise Folgendes tun: 1. Das Training wird beendet, möglicherweise absichtlich oder aufgrund bestimmter Fehler. 2. Erfassen Sie den Prüfpunkt. 3. Laden Sie den Checkpoint später wieder, möglicherweise auf einer anderen Hardware. 4. Starten Sie das Training neu. In Gemini bezieht sich ein Checkpoint auf eine bestimmte Version eines Gemini-Modells, das auf einem bestimmten Dataset trainiert wurde.
-
Klassifizierungsmodell
- Ein Modell, dessen Vorhersage eine Klasse ist. Beispiele für Klassifizierungsmodelle: Ein Modell, das die Sprache eines Eingabesatzes vorhersagt (Französisch? Spanisch? Italienisch?). Ein Modell, das Baumarten vorhersagt (Ahorn? Eiche? Baobab?). Ein Modell, das die positive oder negative Klasse für eine bestimmte Erkrankung vorhersagt.
-
Klassifizierungsmesswerte
- Unterstützte Klassifizierungsmesswerte im Vertex AI SDK für Python sind Wahrheitsmatrix und ROC-Kurve.
-
Cloud TPU
- Ein spezieller Hardwarebeschleuniger, der Arbeitslasten für maschinelles Lernen in Google Cloud beschleunigt.
-
Container-Image
- Ein Container-Image ist ein Paket, das den ausführbaren Code der Komponente und eine Definition der Umgebung enthält, in der der Code ausgeführt wird. Weitere Informationen finden Sie unter Benutzerdefiniertes Training.
-
context
- Mit einem Kontext werden Artefakte und Ausführungen in einer einzigen, abfragbaren und typisierten Kategorie zusammengefasst. Kontexte können zur Darstellung von Metadaten verwendet werden. Ein Beispiel für einen Kontext wäre die Ausführung einer Pipeline für maschinelles Lernen.
-
context window
- Die Anzahl der Tokens, die ein Modell in einem bestimmten Prompt verarbeiten kann. Je größer das Kontextfenster ist, desto mehr Informationen kann das Modell verwenden, um kohärente und konsistente Antworten auf den Prompt zu geben.
-
Vom Kunden verwaltete Verschlüsselungsschlüssel (Customer Managed Encryption Keys, CMEK)
- Vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) sind Integrationen, mit denen Kunden Daten in vorhandenen Google-Diensten mit einem Schlüssel verschlüsseln können, den sie in Cloud KMS (alias Storky) verwalten. Der Schlüssel in Cloud KMS ist der Schlüsselverschlüsselungsschlüssel, der seine Daten schützt. Weitere Informationen finden Sie unter Vom Kunden verwaltete Verschlüsselungsschlüssel (CMEK).
-
CustomJob
- Ein CustomJob ist eine von drei Vertex AI-Ressourcen, die Nutzer zum Trainieren benutzerdefinierter Modelle in Vertex AI erstellen können. Benutzerdefinierte Trainingsjobs stellen den grundlegenden Weg dar, um benutzerdefinierten Trainingscode für maschinelles Lernen (ML) in Vertex AI auszuführen. Weitere Informationen finden Sie unter Benutzerdefinierte Trainingsjobs erstellen.
-
Dask
- Dask ist eine verteilte Computing-Plattform, die häufig mit TensorFlow, PyTorch und anderen ML-Frameworks verwendet wird, um verteilte Trainingsjobs zu verwalten. Weitere Informationen finden Sie in Wikipedia.
-
Datenanalyse
- Daten durch Stichproben, Messungen und Visualisierungen besser verstehen Die Datenanalyse kann besonders nützlich sein, wenn ein Datensatz zum ersten Mal empfangen wird, bevor das erste Modell erstellt wird. Außerdem ist es wichtig, um Tests zu verstehen und Probleme mit dem System zu beheben.
-
Datenergänzung
- Die Bandbreite und Anzahl der Trainingsbeispiele wird künstlich erhöht, indem vorhandene Beispiele umgewandelt werden, um zusätzliche Beispiele zu erstellen. Angenommen, Bilder sind eine Ihrer Funktionen, Ihr Dataset enthält aber nicht genügend Bildbeispiele, damit das Modell nützliche Verknüpfungen lernen kann. Idealerweise fügen Sie Ihrem Dataset genügend mit Labels versehene Bilder hinzu, damit Ihr Modell richtig trainiert werden kann. Ist das nicht möglich, können Sie mithilfe der Datenaugmentation jedes Bild drehen, strecken und spiegeln, um viele Varianten des Originalbilds zu erstellen. So erhalten Sie möglicherweise genügend beschriftete Daten, um ein hervorragendes Training zu ermöglichen.
-
DataFrame
- Ein beliebter Pandas-Datentyp zur Darstellung von Datasets im Arbeitsspeicher. Ein DataFrame ist analog zu einer Tabelle oder einer Tabellenkalkulation. Jede Spalte eines DataFrames hat einen Namen (eine Überschrift) und jede Zeile wird durch eine eindeutige Nummer identifiziert.Jede Spalte in einem DataFrame ist wie ein 2D-Array strukturiert, mit der Ausnahme, dass jeder Spalte ein eigener Datentyp zugewiesen werden kann.
-
Dataset (Datensatz)
- Ein Dataset ist allgemein als eine Sammlung strukturierter oder unstrukturierter Datensätze definiert. Eine Sammlung von Rohdaten, die in der Regel (aber nicht ausschließlich) in einem der folgenden Formate organisiert ist: Tabelle oder Datei im CSV-Format (Comma Separated Values, kommagetrennte Werte). Weitere Informationen finden Sie unter Dataset erstellen.
-
Einbettung
- Eine Einbettung ist ein Vektortyp, der zur Darstellung von Daten verwendet wird, um ihre semantische Bedeutung zu erfassen. Einbettungen werden meist mithilfe von Techniken des maschinellen Lernens erstellt und häufig in Natural Language Processing (NLP) und anderen ML-Anwendungen verwendet.
-
Ereignis
- Ein Ereignis beschreibt die Beziehung zwischen Artefakten und Ausführungen. Jedes Artefakt kann von einer Ausführung erstellt und von anderen Ausführungen genutzt werden. Anhand von Ereignissen können Sie die Herkunft von Artefakten in ihren ML-Workflows ermitteln, indem Artefakte und Ausführungen verkettet werden.
-
Ausführung
- Eine Ausführung ist ein Datensatz eines einzelnen Workflows für maschinelles Lernen, der normalerweise mit seinen Laufzeitparametern annotiert ist. Beispiele für Ausführungen sind Datenaufnahme, Datenvalidierung, Modelltraining, Modellbewertung und Modellbereitstellung.
-
Test
- Ein Test ist ein Kontext, der eine Reihe von n Testausführungen zusätzlich zu Pipeline-Ausführungen enthalten kann, in denen ein Nutzer als Gruppe verschiedene Konfigurationen wie Eingabeartefakte oder Hyperparameter untersuchen kann.
-
Testausführung
- Eine Testausführung kann benutzerdefinierte Messwerte, Parameter, Ausführungen, Artefakte und Vertex-Ressourcen enthalten (z. B. PipelineJob).
-
Explorative Datenanalyse
- In der Statistik ist die explorative Datenanalyse (EDA) ein Ansatz zur Analyse von Datasets, um ihre Hauptmerkmale zusammenzufassen, oft mit visuellen Methoden. Optional kann ein statistisches Modell verwendet werden. EDA dient aber hauptsächlich dazu, zu sehen, was uns die Daten über die formalen Modellierungs- oder Hypothesentestaufgaben hinaus sagen können.
-
Feature
- Beim maschinellen Lernen (ML) ist ein Feature ein Merkmal oder Attribut einer Instanz oder Entität, das als Eingabe zum Trainieren eines ML-Modells oder für Vorhersagen verwendet wird.
-
Feature Engineering
- Feature Engineering ist der Prozess der Umwandlung von Rohdaten des maschinellen Lernens (ML) in Features, die zum Trainieren von ML-Modellen oder für Vorhersagen verwendet werden können.
-
Featurewert
- Ein Featurewert entspricht dem tatsächlichen und messbaren Wert eines Features (Attributs) einer Instanz oder Entität. Eine Sammlung von Featurewerten für die eindeutige Entität stellt den Feature-Datensatz dar, der der Entität entspricht.
-
Bereitstellung von Features
- Das Bereitstellen von Features ist der Export oder Abruf von Featurewerten für Training oder Inferenz. In Vertex AI gibt es zwei Arten der Bereitstellung von Features: Onlinebereitstellung und Offlinebereitstellung. Bei der Onlinebereitstellung werden die neuesten Featurewerte einer Teilmenge der Feature-Datenquelle für Onlinevorhersagen abgerufen. Bei der Offline- oder Batchbereitstellung werden große Mengen von Featuredaten für die Offlineverarbeitung exportiert, z. B. für das ML-Modelltraining.
-
Feature-Zeitstempel
- Ein Feature-Zeitstempel gibt an, wann die Featurewerte in einem bestimmten Feature-Datensatz für eine Entität generiert wurden.
-
Feature-Datensatz
- Ein Feature-Datensatz ist eine Aggregation aller Featurewerte, die die Attribute einer eindeutigen Entität zu einem bestimmten Zeitpunkt beschreiben.
-
Feature Registry
- Ein Feature Registry ist eine zentrale Schnittstelle zum Erfassen von Feature-Datenquellen, die Sie für Onlinevorhersagen bereitstellen möchten. Weitere Informationen finden Sie unter Feature Registry einrichten.
-
Featuregruppe
- Eine Featuregruppe ist eine Ressource der Feature-Registry, die einer BigQuery-Quelltabelle oder ‑ansicht mit Featuredaten entspricht. Eine Feature-Ansicht kann Features enthalten und als logische Gruppierung von Featurespalten in der Datenquelle betrachtet werden.
-
Featureansicht
- Eine Featureansicht ist eine logische Sammlung von Features, die aus einer BigQuery-Datenquelle in eine Onlinespeicher-Instanz materialisiert werden. In einer Featureansicht werden die Feature-Daten des Kunden gespeichert und regelmäßig aus der BigQuery-Quelle aktualisiert. Eine Featureansicht ist dem Featuredatenspeicher entweder direkt oder über Verknüpfungen zu Feature Registry-Ressourcen zugeordnet.
-
Ground Truth
- Ein Begriff, bei dem das maschinelle Lernen auf Genauigkeit im echten Leben geprüft wird, z. B. ein Ground Truth-Dataset.
-
Verlust (Kosten)
- Während des Trainings eines überwachten Modells gibt dieser Wert an, wie weit die Vorhersage eines Modells von seinem Label entfernt ist. Mit einer Verlustfunktion wird der Verlust berechnet.
-
ML-Pipelines
- ML-Pipelines sind portable und skalierbare ML-Workflows, die auf Containern basieren.
-
model
- Alle Modelle, vortrainiert oder nicht. Im Allgemeinen jedes mathematische Konstrukt, das Eingabedaten verarbeitet und eine Ausgabe zurückgibt. Mit anderen Worten: Ein Modell ist die Kombination aus Parametern und Struktur, die ein System für die Vorhersage benötigt.
-
Modellressourcenname
- Der Ressourcenname für eine
model
ist: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Sie finden die Modell-ID in der Cloud Console auf der Seite „Modell-Registry“.
- Der Ressourcenname für eine
-
Network File System (NFS)
- Ein Client/Server-System, mit dem Nutzer über ein Netzwerk auf Dateien zugreifen und sie so behandeln können, als befänden sie sich in einem lokalen Dateiverzeichnis.
-
Offlinespeicher
- Der Offlinespeicher ist eine Speichereinrichtung, in der aktuelle Featuredaten und Feature-Verlaufsdaten gespeichert werden, die normalerweise zum Trainieren von ML-Modellen verwendet werden. Ein Offlinespeicher enthält auch die neuesten Featurewerte, die Sie für Onlinevorhersagen bereitstellen können.
-
Onlinespeicher
- Bei der Featureverwaltung ist ein Onlinespeicher eine Speichereinrichtung für die neuesten Featurewerte, die für Onlinevorhersagen bereitgestellt werden.
-
Parameter
- Parameter sind Schlüsseleingabewerte, die eine Ausführung konfigurieren, das Verhalten der Ausführung steuern und die Ergebnisse der Ausführung beeinflussen. Beispiele sind die Lernrate, die Abbruchrate und die Anzahl der Trainingsschritte.
-
Pipeline-Komponente
- Ein eigenständiger Codesatz, der einen Schritt im Arbeitsablauf einer Pipeline ausführt, z. B. Datenvorverarbeitung, Datentransformation und Modelltraining.
-
Pipelinejob
- Ein Pipelinejob oder eine Pipelineausführung entspricht der PipelineJob-Ressource in der Vertex AI API. Es ist eine Ausführungs-Instanz Ihrer ML-Pipelinedefinition, die als Reihe von ML-Aufgaben definiert ist, die durch Eingabe-/Ausgabeabhängigkeiten miteinander verbunden sind.
-
Pipelineausführung
- Ein oder mehrere Vertex PipelineJobs können mit einem Test verknüpft werden, wobei jeder PipelineJob als einzelne Ausführung dargestellt wird. In diesem Kontext werden die Parameter der Ausführung von den Parametern des PipelineJobs abgeleitet. Die Messwerte werden aus den von diesem PipelineJob generierten system.Metric-Artefakten abgeleitet. Die Artefakte der Ausführung werden aus Artefakten abgeleitet, die von diesem PipelineJob erstellt werden.
-
Pipelinevorlage
- Eine ML-Workflow-Definition, die ein einzelner Nutzer oder mehrere Nutzer wiederverwenden können, um mehrere Pipelineausführungen zu erstellen.
-
Private Service Connect (PSC)
- Private Service Connect ist eine Technologie, mit der Compute Engine-Kunden private IP-Adressen in ihrem Netzwerk entweder einem anderen VPC-Netzwerk oder Google APIs zuordnen können.
-
Private Service Connect-Schnittstelle (PSC-I)
- Die Private Service Connect-Schnittstelle bietet Erstellern die Möglichkeit, privat Verbindungen zu beliebigen Netzwerkressourcen im Nutzer-VPC herzustellen.
-
Ray-Cluster in Vertex AI
- Integrierte Ray-Cluster in Vertex AI sichern die Kapazitätsverfügbarkeit für kritische ML-Arbeitslasten oder während Spitzenzeiten. Im Gegensatz zu benutzerdefinierten Jobs, bei denen der Trainingsdienst die Ressource nach Abschluss des Jobs freigibt, bleiben Ray-Cluster bis zum Löschen verfügbar. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
-
Ray on Vertex AI (RoV)
- Ray on Vertex AI wurde so entwickelt, dass Sie denselben Open-Source-Ray-Code zum Schreiben von Programmen und Entwickeln von Anwendungen in Vertex AI mit minimalen Änderungen verwenden können. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
-
Ray on Vertex AI SDK für Python
- Das hier verwendete Ray on Vertex AI SDK für Python ist eine Version des Vertex AI SDK für Python, die die Funktionen von Ray Client, Ray BigQuery Connector, der Ray-Clusterverwaltung in Vertex AI und Vorhersagen in Vertex AI umfasst. Weitere Informationen finden Sie unter Einführung in das Vertex AI SDK für Python.
-
Recall
- Der Prozentsatz der echten nächsten Nachbarn, die vom Index zurückgegeben werden. Wenn z. B. eine Abfrage nach 20 nächsten Nachbarn 19 der „grundlegend echten“ nächsten Nachbarn zurückgibt, beträgt der Recall 19/20x100 = 95 %.
-
Einschränkungen
- Funktionen zum "Einschränken" von Suchanfragen auf eine Teilmenge des Index mithilfe von booleschen Regeln. „Einschränken“ wird auch als „Filter“ bezeichnet. Mit der Vektorsuche können Sie numerische Filter und Textattributfilter verwenden.
-
Dienstkonto
- In der Google Cloud ist ein Dienstkonto ein spezieller Kontotyp, der nicht von einer Person, sondern von einer Anwendung oder einer VM-Instanz verwendet wird. Anwendungen verwenden Dienstkonten für autorisierte API-Aufrufe.
-
Zusammenfassende Messwerte
- Zusammenfassende Messwerte sind ein einzelner Wert für jeden Messwertschlüssel in einer Testausführung. Beispiel: Die Testgenauigkeit eines Tests ist die Genauigkeit, die anhand eines Test-Datasets am Ende des Trainings berechnet wird und als einzelner zusammenfassender Messwert erfasst werden kann.
-
TensorBoard
- TensorBoard ist eine Suite von Webanwendungen zum Visualisieren und Verstehen von TensorFlow-Ausführungen und ‑Modellen. Weitere Informationen finden Sie unter TensorBoard.
-
TensorBoard-Ressourcenname
- Mit einem TensorBoard-Ressourcennamen wird eine Vertex AI TensorBoard-Instanz vollständig identifiziert. Das Format lautet: projects/PROJEKT-ID_ODER_-NUMBER/locations/REGION/tensorboards/TENSORBOARD-INSTANZ-ID.
-
TensorBoard-Instanz
- Eine TensorBoard-Instanz ist eine regionalisierte Ressource, in der Vertex AI TensorBoard-Tests gespeichert werden, die mit einem Projekt verknüpft sind. Sie können in einem Projekt mehrere TensorBoard-Instanzen erstellen, wenn Sie beispielsweise mehrere CMEK-fähige Instanzen benötigen. Dieser Wert entspricht der TensorBoard-Ressource in der API.
-
TensorFlow Extended (TFX)
- TensorFlow Extended (TFX) ist eine End-to-End-Plattform zum Bereitstellen von ML-Pipelines für die Produktion basierend auf der TensorFlow-Plattform.
-
zeitlicher Versatz, Zeitstempel
- Der zeitliche Versatz bezieht sich auf den Beginn eines Videos.
-
Zeitsegment
- Ein Zeitsegment wird durch den zeitlichen Versatz am Beginn und Ende identifiziert.
-
Zeitachsenmesswerte
- Zeitachsenmesswerte sind Längengradmesswerte, wobei jeder Wert einen Schritt im Teil der Trainingsroutine einer Ausführung darstellt. Zeitachsenmesswerte werden in Vertex AI TensorBoard gespeichert. Vertex AI Experiments speichert einen Verweis auf die Vertex TensorBoard-Ressource.
-
Token
- Ein Token in einem Sprachmodell ist die atomare Einheit, die das Modell trainiert und Vorhersagen für Wörter, Morpheme und Zeichen trifft. In anderen Bereichen als Sprachmodellen können Tokens andere Arten von atomaren Einheiten darstellen. Beim maschinellen Sehen kann ein Token beispielsweise ein Teil eines Bildes sein.
-
nicht verwaltete Artefakte
- Ein Artefakt außerhalb des Kontexts von Vertex AI.
-
vector
- Ein Vektor ist eine Liste von Gleitkommawerten mit Betrag und Richtung. Sie können damit alle Arten von Daten darstellen, z. B. Zahlen, Punkte im Raum oder Richtungen.
-
Vertex AI Experiments
- Mit Vertex AI Experiments können Nutzer Folgendes erfassen: Schritte einer Testausführung (z. B. Vorverarbeitung und Training) 2. Eingaben (z. B. Algorithmus, Parameter und Datensätze) 3. Ausgaben dieser Schritte (z. B. Modelle, Prüfpunkte und Messwerte).
-
Vertex AI TensorBoard-Test
- Die mit einem Test verknüpften Daten (Skalare, Histogramme, Verteilungen usw.) können in der TensorBoard-Webanwendung angezeigt werden. Zeitreihenskalare können in der Google Cloud Console aufgerufen werden. Weitere Informationen finden Sie unter Ausführungen vergleichen und analysieren.
-
Vertex AI SDK für Python
- Das Vertex AI SDK für Python bietet ähnliche Funktionen wie die Vertex AI Python-Clientbibliothek, mit der Ausnahme, dass das SDK auf höherer Ebene arbeitet und weniger detailliert ist.
-
Vertex-Datentyp
- Vertex AI-Datentypen sind "Bild", "Text", "Tabelle" und "Video".
-
Videosegment
- Ein Videosegment wird durch den zeitlichen Versatz am Beginn und Ende eines Videos identifiziert.
-
Virtual Private Cloud (VPC)
- Eine Virtual Private Cloud ist ein on-demand verfügbarer, konfigurierbarer Pool gemeinsam genutzter Computing-Ressourcen, der in einer öffentlichen Cloud-Umgebung zugewiesen wird und eine gewisse Isolation zwischen verschiedenen Organisationen bietet, die diese Ressourcen nutzen.