-
Kundenservicemitarbeiter
- Im Kontext der generativen KI ist ein Agent eine Software, die autonom eine Reihe von Aktionen zur Verfolgung eines Ziels plant und ausführt, möglicherweise in neuen Situationen. Agents können in verschiedenen Anwendungen wie Natural Language Processing, Machine Learning und Robotik verwendet werden. Ein LLM-Agent verwendet beispielsweise ein Sprachmodell, um die Umgebung zu bewerten und eine Aktion auszuwählen, mit der sie ihr Ziel erreichen kann. Mit LLM-Agents können Text generiert, Sprachen übersetzt und Fragen beantwortet werden.
-
API-Endpunkt
- API-Endpunkte sind ein Aspekt der Dienstkonfiguration, der die Netzwerkadressen angibt, die auch als Dienstendpunkte bezeichnet werden (z. B. aiplatform.googleapis.com).
-
Standardanmeldedaten für Anwendungen (ADC)
- Die Standardanmeldedaten für Anwendungen (Application Default Credentials, ADC) bieten eine einfache Möglichkeit, Autorisierungsanmeldedaten für den Aufruf von Google APIs abzurufen. Sie eignen sich am besten für Fälle, in denen der Aufruf unabhängig vom Nutzer dieselbe Identität und Autorisierungsstufe für die Anwendung haben muss. Dies ist der empfohlene Ansatz zum Autorisieren von Aufrufen an Google Cloud APIs, insbesondere wenn Sie eine Anwendung erstellen, die auf virtuellen Maschinen der Google App Engine (GAE) oder Compute Engine bereitgestellt wird. Weitere Informationen finden Sie unter Funktionsweise von Standardanmeldedaten für Anwendungen.
-
Annäherung an den nächsten Nachbarn (ANN)
- Der ANN-Dienst (Approximate Nearest Neighbor) ist eine hochskalierbare Lösung mit niedriger Latenz, mit der ähnliche Vektoren (oder genauer gesagt „Einbettungen“) für einen großen Korpus gefunden werden können. Weitere Informationen finden Sie unter So verwenden Sie die Vektorsuche für den semantischen Abgleich.
-
artifact
- Ein Artefakt ist eine einzelne Entität oder ein Datenelement, das von einem ML-Workflow erzeugt und genutzt wird. Beispiele für Artefakte sind Datasets, Modelle, Eingabedateien und Trainingslogs.
-
Artifact Registry
- Artifact Registry ist ein universeller Artefaktverwaltungsdienst. Dies ist der empfohlene Dienst zum Verwalten von Containern und anderen Artefakten in Google Cloud. Weitere Informationen finden Sie unter Artifact Registry.
-
Künstliche Intelligenz (KI)
- Künstliche Intelligenz (oder KI) ist die Lehre und das Design von Maschinen, die scheinbar „intelligent“ sind, also menschliche oder intellektuelle Funktionen wie mechanische Bewegungen, Logik oder Problemlösung nachahmen. Einer der beliebtesten Teilbereiche der KI ist maschinelles Lernen, das einen statistischen und datengesteuerten Ansatz zur Entwicklung von KI verwendet. Einige Nutzer verwenden diese beiden Begriffe jedoch synonym.
-
Augmented Reality (AR)
- Das Zusammenführen von gerenderten digitalen Inhalten mit realen Inhalten, entweder über ein Display wie auf einem Smartphone oder als Overlay zur Welt, die durch optische Elemente wie Brillen wahrgenommen wird Die digitalen Inhalte sollten die Bewegung der Kamera oder der Brille erfassen (je nachdem, wie die Szene gerendert wird), damit sie als Teil der realen Welt erscheinen.
-
authentication
- Der Prozess der Überprüfung der Identität eines Clients (z. B. eines Nutzers oder eines anderen Prozesses), um auf ein gesichertes System zuzugreifen. Ein Kunde, der seine Identität nachgewiesen hat, gilt als authentifiziert. Weitere Informationen finden Sie unter Authentifizierungsmethoden bei Google.
-
Automatisch nebeneinander (AutoSxS)
- „Automatic Side-by-Side“ (AutoSxS) ist ein modellgestütztes Bewertungstool, mit dem zwei Large Language Models (LLMs) nebeneinander verglichen werden. Damit kann die Leistung entweder von Generative-AI-Modellen in Vertex AI Model Registry oder von vorab generierten Vorhersagen bewertet werden. AutoSxS verwendet einen Autorater, um zu entscheiden, welches Modell auf einen Prompt die bessere Antwort gibt. AutoSxS ist on demand verfügbar und wertet Language Models mit einer vergleichbaren Leistung wie menschliche Prüfer aus.
-
Automatische Spracherkennung (ASR,Speech-to-Text)
- Automatische Transkription von gesprochener Sprache in Text.
-
AutoML
- Algorithmen für maschinelles Lernen, die durch Blackbox-Optimierung lernen, zu lernen Weitere Informationen finden Sie im ML-Glossar.
-
Autoren
- Ein Autorater ist ein Sprachmodell, das die Qualität von Modellantworten anhand eines ursprünglichen Inferenz-Prompts bewertet. Er wird in der AutoSxS-Pipeline verwendet, um die Vorhersagen zweier Modelle zu vergleichen und festzustellen, welches Modell die beste Leistung erzielt hat. Weitere Informationen findest du unter Der Autorater.
-
baseline
- Modell, das als Bezugspunkt zum Vergleich der Leistung eines anderen Modells (in der Regel ein komplexeres) verwendet wird. Ein logistisches Regressionsmodell kann beispielsweise als gute Grundlage für ein tiefes Modell dienen. Für ein bestimmtes Problem hilft die Baseline den Modellentwicklern, die minimale erwartete Leistung zu quantifizieren, die ein neues Modell erreichen muss, damit es nützlich ist. Weitere Informationen finden Sie unter Referenz- und Ziel-Datasets.
-
Batch
- Die in einer Trainingsdurchläufe verwendeten Beispiele. Die Batchgröße bestimmt die Anzahl der Beispiele in einem Batch.
-
Batchgröße
- Die Anzahl der Beispiele in einem Batch. Die Batchgröße von SGD beträgt beispielsweise 1, während die Batchgröße eines Minibatches normalerweise zwischen 10 und 1.000 liegt. Die Batchgröße wird in der Regel während des Trainings und der Inferenz festgelegt. TensorFlow erlaubt jedoch dynamische Batchgrößen.
-
Batchvorhersage
- Die Batchvorhersage gibt für eine Gruppe von Vorhersageanfragen und -ausgaben die Ergebnisse in einer einzelnen Datei aus. Weitere Informationen finden Sie unter Vorhersagen in Vertex AI abrufen – Übersicht.
-
Voreingenommenheit
- 1. Vorurteile, Vorurteile oder Bevorzugung bestimmter Dinge, Personen oder Gruppen gegenüber anderen. Diese Voreingenommenheiten können sich auf die Erhebung und Interpretation von Daten, das Design eines Systems und die Interaktion der Nutzenden mit einem System auswirken. 2. Systematischer Fehler, der durch Stichprobenerhebung oder Berichterstellung verursacht wird.
-
bidrectional
- Ein Begriff, der ein System beschreibt, das den Text bewertet, der sowohl vor als auch nach einem bestimmten Textabschnitt steht. Im Gegensatz dazu wertet ein unidirektionales System nur den Text aus, der einem Zieltextabschnitt vorausgeht.
-
BERT (Bidirektionale Encoder-Darstellungen von Transformern)
- BERT ist eine Methode zur Sprachdarstellung im Vorfeld des Trainings. Das bedeutet, dass wir ein allgemeines „Sprachverständnismodell“ auf einem großen Textkorpus (wie Wikipedia) trainieren und dieses Modell dann für nachgelagerte NLP-Aufgaben verwenden, die uns wichtig sind (z. B. das Beantworten von Fragen). BERT übertrifft frühere Methoden, da es das erste unbeaufsichtigte, stark bidirektionale System für das Vortraining von NLP ist.
-
Bilingual Evaluation Understudy (BLEU)
- Eine beliebte Kennzahl, um die Qualität eines maschinellen Übersetzungsalgorithmus zu bewerten, indem dessen Ausgabe mit der einer oder mehrerer menschlicher Übersetzungen verglichen wird.
-
steigernd
- Beim Modelltraining: Boosting kann sich auf Datenerweiterungstechniken beziehen, die verwendet werden, um die Größe und Vielfalt von Trainings-Datasets zu erhöhen. Dazu werden vorhandene Beispiele transformiert, um zusätzliche, vielfältige Beispiele zu erstellen, die die Modellleistung verbessern können, insbesondere wenn das ursprüngliche Dataset begrenzt ist.
-
Begrenzungsrahmen
- Ein Begrenzungsrahmen für ein Objekt im Videoframe kann auf zwei Arten angegeben werden (i) Mithilfe von zwei Eckpunkten, die aus einer Reihe von x- und y-Koordinaten bestehen, wenn sie diagonale gegenüberliegende Punkte des Rechtecks sind. Beispiel: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Mithilfe aller vier Eckpunkte. Weitere Informationen finden Sie unter Videodaten vorbereiten.
-
Bucket
- Der oberste Ordnerebene für Cloud Storage. Bucket-Namen müssen für alle Nutzer von Cloud Storage eindeutig sein. Buckets enthalten Dateien. Weitere Informationen finden Sie in der Produktübersicht über Cloud Storage.
-
Gedankenkette
- In der generativen KI ist Chain-of-Thought (CoT) eine Prompt-Technik, die das Large Language Model (LLM) dazu ermutigt, seinen Schlussfolgerungsprozess explizit detailliert zu beschreiben. Dabei wird das Modell aufgefordert, die Zwischenschritte zur Lösung eines Problems anzuzeigen, anstatt nur die endgültige Antwort zu liefern. Diese Methode kann die Leistung des LLM bei komplexen Aufgaben der Schlussfolgerung erheblich verbessern.
-
chat
- Inhalte eines wechselseitigen Dialogs mit einem ML-System, in der Regel ein Large Language Model. Die vorherige Interaktion in einem Chat (was Sie eingegeben haben und wie das Large Language Model geantwortet hat) wird zum Kontext für die nachfolgenden Teile des Chats. Ein Chatbot ist eine Anwendung eines Large Language Model.
-
Checkpoint
- Daten, die den Status der Parameter eines Modells entweder während des Trainings oder nach Abschluss des Trainings erfassen. Während des Trainings kannst du beispielsweise: 1. Beenden Sie das Training, vielleicht absichtlich oder aufgrund bestimmter Fehler. 2. Prüfpunkt erfassen 3. Aktualisieren Sie den Prüfpunkt später, möglicherweise auf einer anderen Hardware. 4. Training neu starten. In Gemini bezieht sich ein Prüfpunkt auf eine bestimmte Version eines Gemini-Modells, das mit einem bestimmten Dataset trainiert wurde.
-
Klassifizierungsmodell
- Ein Modell, dessen Vorhersage eine Klasse ist. Im Folgenden finden Sie beispielsweise alle Klassifizierungsmodelle: Ein Modell, das die Sprache eines Eingabesatzes vorhersagt (Französisch? Spanisch? Italienisch?). Ein Modell, das Baumarten vorhersagt (Maple? Eiche? Baobab?). Modell, das die positive oder negative Klasse für eine bestimmte Erkrankung vorhersagt.
-
Klassifizierungsmesswerte
- Unterstützte Klassifizierungsmesswerte im Vertex AI SDK für Python sind Wahrheitsmatrix und ROC-Kurve.
-
Cloud TPU
- Ein spezieller Hardwarebeschleuniger zum Beschleunigen von ML-Arbeitslasten in Google Cloud.
-
Clustering
- Im Kontext der generativen KI ist Clustering eine unbeaufsichtigte Methode des maschinellen Lernens, mit der ähnliche Datenpunkte basierend auf ihren Merkmalen gruppiert werden. Dies wird erreicht, indem ein Ähnlichkeitsmaß (oder Messwert) definiert wird, um Datenpunkte zu vergleichen, und die mit hoher Ähnlichkeit in denselben Cluster zu gruppieren. In Generative-AI-Anwendungen kann dies das Clustering von Einbettungen (numerische Darstellung von Text, Bildern oder anderen Daten) beinhalten, um Aufgaben wie die Suche, Klassifizierung oder Ausreißererkennung auszuführen. Kundensegmentierung kann beispielsweise durch Clustern von Kundendaten erreicht werden, um Gruppen mit ähnlichen Verhaltensweisen oder Merkmalen zu identifizieren. Weitere Informationen finden Sie unter Was ist Clustering?.
-
Container-Image
- Ein Container-Image ist ein Paket, das den ausführbaren Code der Komponente und eine Definition der Umgebung enthält, in der der Code ausgeführt wird. Weitere Informationen finden Sie unter Übersicht über benutzerdefiniertes Training.
-
context
- Mit einem Kontext werden Artefakte und Ausführungen in einer einzigen, abfragbaren und typisierten Kategorie zusammengefasst. Kontexte können zur Darstellung von Metadaten verwendet werden. Ein Beispiel für einen Kontext wäre die Ausführung einer Pipeline für maschinelles Lernen.
-
Kontextcache
- Ein Kontextcache in Vertex AI ist eine große Datenmenge, die in mehreren Anfragen an ein Gemini-Modell verwendet werden kann. Der im Cache gespeicherte Inhalt wird in der Region gespeichert, in der die Anfrage zum Erstellen des Cache gestellt wird. Das kann jeder MIME-Typ sein, der von multimodalen Gemini-Modellen unterstützt wird, z. B. Text, Audio oder Video. Weitere Informationen finden Sie in der Übersicht zum Kontext-Caching.
-
Kontextfenster
- Die Anzahl der Tokens, die ein Modell in einem bestimmten Prompt verarbeiten kann. Je größer das Kontextfenster, desto mehr Informationen kann das Modell verwenden, um kohärente und konsistente Antworten auf den Prompt zu liefern.
-
Vom Kunden verwaltete Verschlüsselungsschlüssel (Customer Managed Encryption Keys, CMEK)
- Vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) sind Integrationen, mit denen Kunden Daten in vorhandenen Google-Diensten mit einem Schlüssel verschlüsseln können, den sie in Cloud KMS (alias Storky) verwalten. Der Schlüssel in Cloud KMS ist der Schlüsselverschlüsselungsschlüssel, der seine Daten schützt. Weitere Informationen finden Sie unter Vom Kunden verwaltete Verschlüsselungsschlüssel (CMEK).
-
Datenanalyse
- Daten durch Berücksichtigung von Stichproben, Messungen und Visualisierungen verstehen Die Datenanalyse kann besonders nützlich sein, wenn ein Dataset zum ersten Mal empfangen wird, bevor das erste Modell erstellt wird. Sie ist auch wichtig, um Tests zu verstehen und Systemprobleme zu beheben.
-
Datenerweiterung
- Künstliches Erhöhen des Umfangs und der Anzahl der Trainingsbeispiele durch Umwandlung vorhandener Beispiele in zusätzliche Beispiele. Angenommen, Bilder sind eines Ihrer Merkmale, aber Ihr Dataset enthält nicht genügend Bildbeispiele, damit das Modell nützliche Verknüpfungen lernen kann. Idealerweise fügen Sie dem Dataset genügend beschriftete Bilder hinzu, damit das Modell richtig trainiert werden kann. Wenn dies nicht möglich ist, kann die Datenerweiterung jedes Bild drehen, dehnen und reflektieren, um viele Varianten des Originalbilds zu erzeugen. Dabei werden möglicherweise genügend Daten mit Labels zur Verfügung gestellt, um ein hervorragendes Training zu ermöglichen.
-
DataFrame
- Ein beliebter Pandas-Datentyp zur Darstellung von Datasets im Arbeitsspeicher. Ein DataFrame ist analog zu einer Tabelle oder einer Tabellenkalkulation. Jede Spalte eines DataFrames hat einen Namen (eine Überschrift) und jede Zeile wird durch eine eindeutige Nummer identifiziert. Jede Spalte in einem DataFrame ist wie ein 2D-Array strukturiert, mit der Ausnahme, dass jeder Spalte ein eigener Datentyp zugewiesen werden kann.
-
Datenindexierung
- Im Zusammenhang mit generativer KI bezeichnet Datenindexierung der Prozess der Strukturierung und Organisation einer Wissensdatenbank, um die Suche und das Abrufen zu optimieren. Dazu gehört die Erstellung eines Index, der oft als Korpus bezeichnet wird, mit dem die Daten effizient durchsucht werden können. Der Prozess ist unabhängig von der Korpuserstellung und die indexierten Daten können verwendet werden, um den Kontext von Large Language Models (LLMs) anzureichern, um KI-Halluzinationen zu reduzieren und die Genauigkeit der Antworten zu verbessern. Bei einer Website könnte die Datenindexierung beispielsweise das Hinzufügen von Metadaten wie „datePublished“ und „dateModified“ beinhalten, um die Suchfunktion zu verbessern. Es gibt verschiedene Methoden zur Indexierung von Daten, z. B. die Vektorsuche für die Ähnlichkeitssuche in Anwendungen wie das Abrufen relevanter Informationen für LLMs zum Zeitpunkt der Abfrage. Weitere Informationen finden Sie in der RAG Engine-Übersicht .
-
Datenaufnahme
- Bei der Datenaufnahme werden Daten aus verschiedenen Quellen extrahiert und zur weiteren Verarbeitung und Analyse an einem zentralen Ort integriert. Im Zusammenhang mit generativer KI umfasst die Datenaufnahme das Extrahieren von Informationen aus verschiedenen Datenquellen wie klinischen Formularen, Patientenakten oder unstrukturiertem Text, um Generative AI-Modelle zu trainieren und zu optimieren. Die aufgenommenen Daten werden normalerweise verarbeitet und transformiert, um ihre Qualität und Konsistenz zu gewährleisten, bevor sie zum Trainieren der generativen KI-Modelle verwendet werden. Dieser Prozess kann Datenbereinigungs-, Feature Engineering- und Datenerweiterungstechniken umfassen, um die Leistung des Modells und die Generalisierungsfähigkeiten zu verbessern. Weitere Informationen finden Sie unter Generative KI für das Nutzungsmanagement verwenden.
-
Datenparallelität
- Methode zur Skalierung von Training oder Inferenz, bei der ein gesamtes Modell auf mehrere Geräte repliziert und dann eine Teilmenge der Eingabedaten an jedes Gerät übergibt. Datenparallelität kann Training und Inferenz für sehr große Batchgrößen ermöglichen; die Datenparallelität erfordert jedoch, dass das Modell klein genug ist, um auf alle Geräte zu passen. Datenparallelität beschleunigt normalerweise das Training und die Inferenz.
-
Dataset (Dataset)
- Ein Dataset ist allgemein als eine Sammlung strukturierter oder unstrukturierter Datensätze definiert. Eine Sammlung von Rohdaten, die üblicherweise (aber nicht ausschließlich) in einem der folgenden Formate organisiert sind: eine Tabellenkalkulation, eine Datei im CSV-Format (kommagetrennte Werte). Weitere Informationen finden Sie unter Dataset erstellen.
-
Datentransformation
- Im Kontext von Retrieval Augmented Generation (RAG) bezieht sich die Datentransformation auf die Konvertierung von Daten in ein Format, das für die Indexierung und Verarbeitung durch ein LLM geeignet ist. Dazu werden die Daten häufig in kleinere Blöcke aufgeteilt, um sie für die Einbettung und Indexierung verwalten zu können. Andere Transformationen können Bereinigungs- und Validierungsschritte zur Sicherstellung der Datenqualität umfassen. Weitere Informationen finden Sie in der RAG Engine-Übersicht.
-
Decoder
- Im Allgemeinen ist jedes ML-System, das von einer verarbeiteten, dichten oder internen Darstellung in eine unbearbeitete, dünnbesetzte oder externe Darstellung konvertiert. Decodierer sind oft eine Komponente eines größeren Modells, in dem sie häufig mit einem Encoder gekoppelt sind. Bei Sequenz-zu-Sequenz-Aufgaben beginnt ein Decoder mit dem internen Status, der vom Encoder generiert wird, um die nächste Sequenz vorherzusagen.
-
neuronales Deep-Learning-Netzwerk (DNN)
- Ein neuronales Netzwerk mit mehreren verborgenen Schichten, die in der Regel durch Deep-Learning-Techniken programmiert wurden.
-
Tiefe
- Die Summe der folgenden Werte in einem neuronalen Netzwerk: 1. die Anzahl der ausgeblendeten Ebenen, 2. die Anzahl der Ausgabeebenen, normalerweise eins, 3, die Anzahl aller Einbettungsebenen. Ein neuronales Netzwerk mit fünf verborgenen Schichten und einer Ausgabeschicht hat beispielsweise eine Tiefe von 6. Die Eingabeebene hat keinen Einfluss auf die Tiefe.
-
DevOps
- DevOps ist eine Suite von Google Cloud Platform-Produkten wie Artifact Registry und Cloud Deploy.
-
vorzeitiges Beenden
- Methode zur Regularisierung, bei der das Training beendet wird, bevor der Trainingsverlust sinkt. Beim vorzeitigen Beenden stoppen Sie das Training des Modells absichtlich, wenn der Verlust bei einem Validierungs-Dataset zunimmt, d. h. wenn sich die Generalisierungsleistung verschlechtert.
-
Einbettung
- Numerische Darstellungen von Wörtern oder Textabschnitten Diese Zahlen erfassen die semantische Bedeutung und den Kontext des Textes. Ähnliche oder verwandte Wörter oder Texte haben tendenziell ähnliche Einbettungen, was bedeutet, dass sie im hochdimensionalen Vektorraum näher beieinander liegen.
-
Einbettungsbereich (latenter Bereich)
- In generativer KI bezieht sich der Einbettungsbereich auf eine numerische Darstellung von Text, Bildern oder Videos, die Beziehungen zwischen Eingaben erfasst. Modelle für maschinelles Lernen, insbesondere Modelle für generative KI, sind sehr gut darin, diese Einbettungen zu erstellen, da sie Muster in großen Datasets erkennen. Anwendungen können mithilfe von Einbettungen Sprache verarbeiten und generieren und dabei komplexe Bedeutungen und semantische Beziehungen erkennen, die für den Inhalt spezifisch sind.
-
Einbettungsvektor
- Eine dichte, oft niedrigdimensionale Vektordarstellung eines Elements, bei der sich die jeweiligen Einbettungen im Einbettungsvektorraum nahe beieinander befinden, wenn zwei Elemente semantisch ähnlich sind.
-
Encoder
- Im Allgemeinen ist jedes ML-System, das eine rohe, dünnbesetzte oder externe Darstellung in eine besser verarbeitete, dichtere oder internere Darstellung umwandelt. Encoder sind oft eine Komponente eines größeren Modells, da sie häufig mit einem Decoder gekoppelt sind. Einige Transformatoren koppeln Encoder mit Decodern, während andere nur den Encoder oder nur den Decoder verwenden. Einige Systeme verwenden die Ausgabe des Encoders als Eingabe für ein Klassifizierungs- oder Regressionsnetzwerk. Bei Sequenz-zu-Sequenz-Aufgaben nimmt ein Encoder eine Eingabesequenz und gibt einen internen Status (einen Vektor) zurück. Dann nutzt der Decoder diesen internen Zustand, um die nächste Sequenz vorherzusagen.
-
Ensemble
- Sammlung von Modellen, die unabhängig trainiert wurden und deren Vorhersagen gemittelt oder aggregiert werden. In vielen Fällen liefert ein Ensemble bessere Vorhersagen als ein einzelnes Modell. Ein Random Forest ist beispielsweise ein Ensemble, das aus mehreren Entscheidungsbäumen besteht. Beachten Sie, dass nicht alle Entscheidungswälder Ensembles sind.
-
Umgebung
- Beim Reinforcement Learning ist dies die Welt, in der sich der Agent befindet und in der er seinen Zustand beobachten kann. Die dargestellte Welt kann beispielsweise ein Spiel wie Schach oder eine physische Welt wie ein Labyrinth sein. Wenn der Agent eine Aktion auf die Umgebung anwendet, wechselt die Umgebung zwischen den Status.
-
Bewertung (eval)
- Evaluierung, kurz für „Evaluation“, ist eine Art von Test, bei dem protokollierte oder synthetische Abfragen über zwei Suchstacks gesendet werden – einen experimentellen Stapel, der Ihre Änderung enthält, und einen Basis-Stack ohne Ihre Änderung. Aus Bewertungen ergeben sich Unterschiede und Messwerte, mit denen Sie die Auswirkungen, die Qualität und andere Auswirkungen der Änderung auf die Suchergebnisse und andere Aspekte der Google-Nutzererfahrung bewerten können. Bewertungen werden während der Feinabstimmung oder Iterationen Ihrer Änderung verwendet. Sie werden auch als Teil einer Änderung des Live-Nutzer-Traffics eingesetzt.
-
Ausführung
- Eine Ausführung ist ein Datensatz eines einzelnen Workflows für maschinelles Lernen, der normalerweise mit seinen Laufzeitparametern annotiert ist. Beispiele für Ausführungen sind Datenaufnahme, Datenvalidierung, Modelltraining, Modellbewertung und Modellbereitstellung.
-
F1-Wert
- Der F1-Wert ist ein Messwert, mit dem die Genauigkeit der Modellausgabe bewertet wird. Sie ist besonders nützlich, um die Leistung von Modellen bei Aufgaben zu bewerten, bei denen sowohl Genauigkeit als auch Trefferquote wichtig sind, z. B. die Informationsextraktion. Bei generativen KI-Modellen kann der F1-Wert verwendet werden, um die Vorhersagen des Modells mit Ground-Truth-Daten zu vergleichen und die Genauigkeit des Modells zu bestimmen. Für generative Aufgaben wie Zusammenfassung und Textgenerierung sind jedoch andere Messwerte wie der Rough-L-Wert möglicherweise geeigneter.
-
Feature
- Beim maschinellen Lernen (ML) ist ein Feature ein Merkmal oder Attribut einer Instanz oder Entität, das als Eingabe zum Trainieren eines ML-Modells oder für Vorhersagen verwendet wird.
-
Featureextraktion
- Im Kontext der generativen KI bezieht sich die Featureextraktion auf den Prozess der Identifizierung und Auswahl relevanter Features aus Eingabedaten, die für das Modelltraining verwendet werden sollen. Diese Merkmale werden dann verwendet, um neue Daten zu generieren, die der ursprünglichen Eingabe ähneln. Bei der Bildgenerierung kann die Featureextraktion beispielsweise das Identifizieren von Kanten, Texturen und Farben beinhalten. Beim Natural Language Processing könnte dies das Extrahieren von Schlüsselwörtern, Sätzen und grammatischen Strukturen beinhalten. Die extrahierten Merkmale werden dann vom generativen Modell verwendet, um neue Inhalte zu erstellen.
-
Bereitstellung von Features
- Bei der Featurebereitstellung werden Featurewerte für Training oder Inferenz exportiert oder abgerufen. In Vertex AI gibt es zwei Arten der Bereitstellung von Features: Onlinebereitstellung und Offlinebereitstellung. Bei der Onlinebereitstellung werden die neuesten Featurewerte einer Teilmenge der Featuredatenquelle für Onlinevorhersagen abgerufen. Bei der Offline- oder Batchbereitstellung werden große Mengen an Featuredaten, einschließlich Verlaufsdaten, für die Offlineverarbeitung wie ML-Modelltraining exportiert.
-
Featureansicht
- Eine Featureansicht ist eine logische Sammlung von Features, die aus einer BigQuery-Datenquelle in eine Onlinespeicher-Instanz materialisiert werden. In einer Featureansicht werden die Featuredaten des Kunden gespeichert und regelmäßig aktualisiert. Diese werden regelmäßig aus der BigQuery-Quelle aktualisiert. Eine Featureansicht ist dem Featuredatenspeicher entweder direkt oder über Verknüpfungen zu Feature Registry-Ressourcen zugeordnet.
-
Prompt mit wenigen Aufnahmen (wenige Aufnahme)
- In generativer KI bezieht sich „wenige Aufnahme“ auf eine Art von Prompt, der eine kleine Anzahl von Beispielen zur Orientierung für die Antwort des Modells enthält. Diese Beispiele helfen dem Modell, das gewünschte Ausgabeformat, die Formulierung, den Umfang oder das allgemeine Muster der Antwort zu verstehen. Häufig werden wenige Prompts verwendet, um die Ausgabe von Language Models zu regulieren. So wird sichergestellt, dass Antworten generiert werden, die genau und von hoher Qualität sind und den Erwartungen der Nutzer entsprechen. Durch die Bereitstellung einiger relevanter Beispiele für das Modell kann der Benutzer das Verhalten des Modells beeinflussen und zufriedenere Ergebnisse erzielen. Weitere Informationen finden Sie unter Beispiele aus wenigen Aufnahmen.
-
Foundation Model (FM)
- Modelle, die mit umfassenden Daten trainiert wurden, sodass sie an eine Vielzahl von nachgelagerten Aufgaben angepasst (z. B. optimiert) werden können.
-
Foundation Model Operations (FMOPs)
- FMOps erweitert die Fähigkeiten von MLOps und konzentriert sich auf die effiziente Produktion von vortrainierten (von Grund auf trainierten) oder benutzerdefinierten (fein abgestimmten) FMs.
-
Gemini
- Gemini ist eine Reihe großer sequenzbasierter multimodaler Modelle von Google. Das bedeutet, dass sie Eingaben annehmen und Ausgaben in mehr als einem Medium gleichzeitig generieren können, einschließlich Text-, Audio- und visuellen Medien. Sie sind auf die Einbindung in Agents ausgelegt, die verschiedene Aufgaben ausführen können. Weitere Informationen finden Sie unter Google-Modelle.
-
Generalisierung
- Fähigkeit eines Modells, korrekte Vorhersagen für neue, zuvor unbekannte Daten zu treffen. Ein Modell, das generalisieren kann, ist das Gegenteil eines Modells mit Überanpassung.
-
Generation
- Im Kontext der generativen KI bezieht sich „Erzeugung“ auf den Prozess, bei dem aus vorhandenen Daten oder Informationen neue Daten oder Inhalte erstellt werden. Modelle für generative KI werden mit großen Datasets trainiert und können Muster und Beziehungen innerhalb der Daten lernen. Anhand dieses Wissens können sie dann neue und einzigartige Inhalte generieren, die den Trainingsdaten ähneln, aber kein exaktes Replikat. Weitere Informationen finden Sie unter Wann sollte generative KI oder herkömmliche KI verwendet werden?.
-
generatives Modell
- Modell für maschinelles Lernen, das anhand seiner Trainingsdaten neue Ausgaben erstellen kann. Im einfachsten Fall generiert das Modell neue Daten, die wie bestimmte Kategorien aussehen, mit denen es trainiert wurde. Normalerweise in Verbindung mit Large Language Models, aber auch andere Modelltypen können generativ sein.
-
Eingebettetes Modemsystem von Google (GEMS)
- GEMS ist ein eingebettetes Software-Framework, das auf Modems ausgerichtet ist, sowie eine Reihe von Entwicklungsworkflows und -infrastrukturen. Die Kernvision von GEMS besteht darin, qualitativ hochwertigen Modemsystemcode mit hoher Wiederverwendbarkeit auf vielen Google-Geräten mit Modem bereitzustellen. Um diese breit gefasste Vision zu erreichen, bietet GEMS eine umfassende Umgebung für Entwickler, die aus den unten dargestellten Hauptbausteinen besteht.
-
Farbverlauf
- Der Vektor partieller Ableitungen unter Berücksichtigung aller unabhängigen Variablen. Beim maschinellen Lernen ist der Gradient der Vektor von partiellen Ableitungen der Modellfunktion. Der Farbverlauf zeigt in Richtung des steilsten Aufstiegs.
-
Grafik
- Im Kontext von generativer KI bezieht sich ein Graph auf eine strukturierte Darstellung von Informationen, in der Daten als Netzwerk aus Knoten und Kanten organisiert und verbunden werden. Diese Grafiken werden häufig verwendet, um Wissen und Beziehungen zwischen Entitäten darzustellen. Daher sind sie besonders nützlich für Generative AI-Systeme, die ein tiefgreifendes Verständnis des Kontexts und der Beziehungen innerhalb von Daten erfordern. Generative-AI-Systeme, die Knowledge Graphs nutzen, können diese nutzen, um die Leistung von Abrufmodellen zu verbessern. Durch die Einbindung von Wissensdiagrammen in das System kann Generative AI auf kontextreiche Daten zugreifen und die Grafik durchsuchen, um basierend auf Nutzeranfragen relevante Teilgrafiken abzurufen. So kann das System präzisere und informativere Antworten liefern, indem kontextbezogene Inhalte generiert werden.
-
Ground Truth (GT)
- Grundwahrheit ist ein Begriff, der in verschiedenen Bereichen verwendet wird, um sich auf die absolute Wahrheit einer Entscheidung oder eines Messproblems im Gegensatz zur Schätzung einiger Systeme zu beziehen. Beim maschinellen Lernen bezieht sich der Begriff „Ground Truth“ auf den Trainingssatz für Techniken des überwachten Lernens.
-
Halluzinationen
- KI-Halluzinationen sind bei generativer KI eine souveräne Reaktion, die sich nicht auf ihre Trainingsdaten stützen kann. Möglicherweise ist es faktisch falsch. Im Kontext der Textgenerierung sind es plausibel klingende, zufällige Unwahrheiten innerhalb des generierten Textinhalts.
-
Heuristik
- Eine einfache und schnell implementierte Lösung für ein Problem. Zum Beispiel: „Mit einer Heuristik haben wir eine Genauigkeit von 86% erreicht. Nach dem Wechsel zu einem neuronalen Deep-Learning-Netzwerk stieg die Genauigkeit auf 98 %.“
-
verborgene Ebene
- Eine Schicht in einem neuronalen Netzwerk zwischen der Eingabeschicht (die Merkmale) und der Ausgabeschicht (die Vorhersage). Jede versteckte Schicht besteht aus einem oder mehreren Neuronen. Ein neuronales Deep-Learning-Netzwerk enthält mehr als eine verborgene Schicht.
-
histogram
- Eine grafische Darstellung der Variation in einem Satz von Daten mithilfe von Balken. Ein Histogramm visualisiert Muster, die in einer einfachen Zahlentabelle schwer zu erkennen sind.
-
Hyperparameter
- Ein Hyperparameter ist eine Variable, die den Trainingsprozess eines Modells für maschinelles Lernen steuert. Diese Variablen können Lernraten, Impulswerte im Optimierungstool und die Anzahl der Einheiten in der letzten verborgenen Schicht eines Modells umfassen. Bei der Hyperparameter-Abstimmung in Vertex AI werden mehrere Tests einer Trainingsanwendung mit unterschiedlichen Werten für die ausgewählten Hyperparameter innerhalb bestimmter Limits ausgeführt. Ziel ist es, die Hyperparameter-Einstellungen zu optimieren, um die Vorhersagegenauigkeit des Modells zu maximieren. Weitere Informationen finden Sie unter Hyperparameter-Abstimmung – Übersicht.
-
Bild
- Imagen ist ein auf generativer KI basierender Text-zu-Bild-Dienst, der über die Vertex AI Platform verfügbar ist. Nutzer können damit neue Bilder generieren, Bilder bearbeiten, Stil- oder Themenmodelle feinabstimmen, Bilder mit Untertiteln versehen oder Antworten auf Fragen zu Bildinhalten erhalten. Weitere Informationen finden Sie unter Imagen in Vertex AI – Übersicht.
-
Bilderkennung
- Bei der Bilderkennung werden Objekte, Muster oder Konzepte in einem Bild klassifiziert. Es wird auch als Bildklassifizierung bezeichnet. Die Bilderkennung ist ein Teilbereich des maschinellen Lernens und des maschinellen Sehens.
-
index
- Eine Sammlung von Vektoren, die gemeinsam für die Ähnlichkeitssuche bereitgestellt werden. Vektoren können einem Index hinzugefügt oder aus einem Index entfernt werden. Ähnlichkeitssuchanfragen werden für einen bestimmten Index ausgegeben und suchen über die Vektoren in diesem Index.
-
Inferenz
- Im Kontext der Vertex AI-Plattform bezeichnet Inferenz den Prozess, bei dem Datenpunkte durch ein Modell für maschinelles Lernen ausgeführt werden, um eine Ausgabe zu berechnen, z. B. einen einzelnen numerischen Wert. Dieser Prozess wird auch als „Operationalisierung eines ML-Modells“ oder „Produktion eines ML-Modells“ bezeichnet. Inferenz ist ein wichtiger Schritt im Workflow für maschinelles Lernen, da sie es ermöglicht, mithilfe von Modellen Vorhersagen für neue Daten zu treffen. In Vertex AI können Inferenzen auf verschiedene Arten ausgeführt werden, einschließlich Batchvorhersagen und Onlinevorhersagen. Bei der Batchvorhersage wird eine Gruppe von Vorhersageanfragen ausgeführt und die Ergebnisse in einer Datei ausgegeben, während die Onlinevorhersage Echtzeitvorhersagen für einzelne Datenpunkte ermöglicht.
-
Informationsabruf (Information Retrieval, IR)
- Das Abrufen von Informationen (Information Retrieval, IR) ist eine wichtige Komponente von Vertex AI Search. Dabei werden relevante Informationen aus einer großen Sammlung von Daten gefunden und abgerufen. Im Kontext von Vertex AI wird IR verwendet, um Dokumente aus einem Korpus basierend auf einer Nutzeranfrage abzurufen. Vertex AI bietet eine Reihe von APIs, mit denen Sie Ihre eigenen RAG-Anwendungen (Retrieval Augmented Generation) oder Ihre eigene Suchmaschine erstellen können. Weitere Informationen finden Sie unter Verwenden von Vertex AI Search als Abruf-Back-End mit RAG Engine.
-
Lernrate (Schrittgröße)
- Die Lernrate ist ein Hyperparameter, der zur Feinabstimmung des Optimierungsprozesses eines Modells für maschinelles Lernen verwendet wird. Sie bestimmt die Schrittgröße, mit der das Modell seine Gewichtungen während des Trainings aktualisiert. Eine höhere Lernrate kann zu einer schnelleren Konvergenz führen, aber auch zu Instabilität oder Überanpassung führen. Umgekehrt kann eine niedrigere Lernrate zu einer langsameren Konvergenz führen, aber dazu beitragen, eine Überanpassung zu verhindern, da keine Quellen vorhanden sind. Weitere Informationen finden Sie unter Überblick über die Hyperparameter-Abstimmung.
-
Verlust (Kosten)
- Während des Trainings eines überwachten Modells wird gemessen, wie weit eine Vorhersage eines Modells von seinem Label entfernt ist. Eine Verlustfunktion berechnet den Verlust.
-
Verwaltetes Dataset
- Ein Dataset-Objekt, das von Vertex AI erstellt und gehostet wird.
-
model
- Alle Modelle, vortrainiert oder nicht. Im Allgemeinen jedes mathematische Konstrukt, das Eingabedaten verarbeitet und eine Ausgabe zurückgibt. Anders ausgedrückt: Ein Modell besteht aus dem Satz von Parametern und der Struktur, die ein System benötigt, um Vorhersagen zu treffen.
-
Modelldestillation (Wissensdestillation, Lehrer-Schüler-Modelle)
- Die Modelldestillation ist eine Technik, mit der kleinere Schüler-/Studentenmodell von einem größeren Lehrermodell lernen kann. Das Schülermodell wird so trainiert, dass es die Ausgabe des Lehrermodells nachahmt und dann verwendet werden kann, um neue Daten zu generieren oder Vorhersagen zu treffen. Die Modelldestillation wird häufig verwendet, um große Modelle effizienter zu machen oder für Geräte mit begrenzten Ressourcen zugänglicher zu machen. Sie kann auch verwendet werden, um die Generalisierung von Modellen zu verbessern, indem eine Überanpassung reduziert wird.
-
Modellmonitoring
- Model Monitoring ist ein Dienst zum Tracking der Qualität und des Verhaltens bereitgestellter Modelle. Weitere Informationen finden Sie unter Einführung in Vertex AI Model Monitoring.
-
Modellressourcenname
- Der Ressourcenname für ein
model
lautet:projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
. Sie finden die ID des Modells in der Cloud Console auf der Seite „Modell-Registry“.
- Der Ressourcenname für ein
-
Network File System (NFS)
- Ein Client-/Server-System, mit dem Nutzer netzwerkübergreifend auf Dateien zugreifen können, die so behandelt werden, als befänden sie sich in einem lokalen Dateiverzeichnis. Weitere Informationen finden Sie unter NFS-Freigabe für benutzerdefiniertes Training bereitstellen.
-
One-Hot-Codierung
- Die One-Hot-Codierung stellt jede Kategorie als Vektor von N Elementen dar (wobei N die Anzahl der Kategorien ist), wobei genau ein Element den Wert 1,0 und alle verbleibenden Elemente einen Wert von 0,0 haben. Weitere Informationen findest du unter One-Hot-Codierung.
-
Prompt mit nur einer Aufnahme
- Ein Prompt mit einem Beispiel, das zeigt, wie das Large Language Model reagieren soll. Weitere Informationen finden Sie unter One-Shot-Prompt.
-
Parameter
- Parameter sind Schlüsseleingabewerte, die eine Ausführung konfigurieren, das Verhalten der Ausführung steuern und die Ergebnisse der Ausführung beeinflussen. Beispiele sind die Lernrate, die Abbruchrate und die Anzahl der Trainingsschritte.
-
Verwirrung
- Perplexität ist ein Messwert, der verwendet wird, um die Leistung von Language Models zu bewerten. Er misst, wie wahrscheinlich es ist, dass das Modell eine bestimmte Textsequenz basierend auf der Verteilung des Textes generiert, mit dem es trainiert wurde. Verwirrung ist ein häufig verwendeter Messwert zur Bewertung von Sprachmodellen und wird häufig verwendet, um die Leistung verschiedener Modelle zu vergleichen oder den Fortschritt eines Modells während des Trainings zu verfolgen.
-
Pipeline
- ML-Pipelines sind portable und skalierbare ML-Workflows, die auf Containern basieren. Weitere Informationen finden Sie unter Einführung in Vertex AI Pipelines.
-
Pipelinejob
- Ein Pipelinejob oder eine Pipelineausführung entspricht der PipelineJob-Ressource in der Vertex AI API. Es ist eine Ausführungsinstanz Ihrer ML-Pipelinedefinition, die aus einer Reihe von ML-Aufgaben definiert ist, die durch Eingabe-/Ausgabeabhängigkeiten miteinander verbunden sind.
-
Pipelineausführung
- Ein oder mehrere Vertex PipelineJobs können mit einem Test verknüpft werden, wobei jeder PipelineJob als einzelne Ausführung dargestellt wird. In diesem Kontext werden die Parameter der Ausführung von den Parametern des PipelineJobs abgeleitet. Die Messwerte werden aus den von diesem PipelineJob generierten system.Metric-Artefakten abgeleitet. Die Artefakte der Ausführung werden aus Artefakten abgeleitet, die von diesem PipelineJob erstellt werden.
-
Zugriff auf private Dienste
- Der Zugriff auf private Dienste ist eine private Verbindung zwischen Ihrem VPC-Netzwerk (Virtual Private Cloud) und Netzwerken von Google oder Drittanbietern. Damit können VM-Instanzen in Ihrem VPC-Netzwerk über interne IP-Adressen mit diesen Diensten kommunizieren, ohne in Kontakt mit dem öffentlichen Internet zu kommen. Weitere Informationen finden Sie unter Zugriff auf private Dienste.
-
Prompt
- Ein Prompt ist eine Anfrage in natürlicher Sprache, die an ein Sprachmodell gesendet wird, um eine Antwort zu erhalten. Prompts können Fragen, Anweisungen, Kontextinformationen, Beispiele mit wenigen Aufnahmen und Teileingaben enthalten, damit das Modell den Vorgang abschließen oder fortfahren kann. Nachdem das Modell einen Prompt erhalten hat, kann es je nach verwendetem Modell Text, Einbettungen, Code, Bilder, Videos, Musik und mehr generieren. Weitere Informationen finden Sie unter Übersicht über Prompt-Strategien.
-
Prompt Engineering (Prompt-Entwurf)
- Beim Prompt-Engineering in generativer KI werden effektive Prompts erstellt, um mit Large Language Models (LLMs) die gewünschten Ergebnisse zu erzielen. Es ist ein iterativer, testgesteuerter Prozess, bei dem Eingaben verfeinert werden, um bestimmte Ergebnisse zu erzielen. Dabei werden sowohl der Inhalt als auch die Struktur der Aufforderung berücksichtigt, um korrekte und qualitativ hochwertige Antworten zu erhalten. Effektives Prompt Engineering ist für komplexe Aufgaben entscheidend, auch wenn es für einfachere Aufgaben möglicherweise gar nicht erforderlich ist. Ziel ist es, schnell Prototypen für LLM-basierte Anwendungen zu erstellen. Weitere Informationen finden Sie unter Einführung in Prompt Engineering.
-
Prompt-Feinabstimmung
- Die Prompt-Abstimmung ist eine Parameter-effiziente Abstimmungsmethode, mit der die Leistung eines Generative-AI-Modells bei einer bestimmten Aufgabe verbessert werden kann. Dabei wird ein „Präfix“ erlernt, das dem eigentlichen Prompt vorangestellt wird, manchmal auf jeder Ebene. Dieser Ansatz wird als kostengünstiger und schneller als andere Abstimmungsmethoden betrachtet und führt oft zu guten Ergebnissen. Die Abstimmung von Prompts ist besonders effektiv, wenn Sie eine bestimmte Aufgabe haben und möchten, dass das Modell diese auf eine bestimmte Weise ausführt. Sie wird manchmal auch als „Prompt Learning“ oder als parametereffiziente (Feinabstimmung) bezeichnet. Weitere Informationen finden Sie unter Einführung in Prompt Engineering.
-
Bereitgestellter Durchsatz (PT)
- Provisioned Throughput (PT) ist ein Premium-Dienst für die generativen KI-Modelle von Vertex AI, der durch Kapazitätssicherung und vorhersehbare Preise eine garantierte Erfahrung bietet. Im Gegensatz zur „Pay as you go“-Option (On-Demand) können Kunden bei PT ein spezielles Kontingent erwerben, damit ihre Anfragen nicht mit anderen um die Modellkapazität konkurrieren. PT ist ein Monats- oder Wochenabo zum Festpreis, das den Durchsatz für bestimmte Modelle und Standorte reserviert. Weitere Informationen finden Sie unter Übersicht zum bereitgestellten Durchsatz.
-
Quantisierung
- Quantisierung ist ein Verfahren zur Modelloptimierung, mit dem die Genauigkeit der Zahlen verringert wird, die zur Darstellung der Parameter eines Modells verwendet werden. Dies kann zu kleineren Modellen, einem geringeren Stromverbrauch und einer geringeren Inferenzlatenz führen.
-
Random Forest
- Random Forest ist ein Algorithmus für maschinelles Lernen, der sowohl für die Klassifizierung als auch für die Regression verwendet wird. Es handelt sich nicht direkt um ein Generative-AI-Modell, sondern um eine Komponente, die in einem größeren generativen KI-System verwendet werden kann. Eine zufällige Gesamtstruktur besteht aus mehreren Entscheidungsbäumen und ihre Vorhersage ist eine Aggregation der Vorhersagen aus diesen einzelnen Bäumen. Bei einer Klassifizierungsaufgabe gibt beispielsweise jeder Baum „Stimmen“ für eine Klasse ab und die endgültige Vorhersage ist die Klasse mit den meisten Stimmen. Weitere Informationen finden Sie unter Entscheidungsstruktur.
-
Ray-Cluster in Vertex AI
- Ein Ray-Cluster in Vertex AI ist ein verwalteter Cluster aus Computing-Knoten, mit dem verteilte Anwendungen für maschinelles Lernen (ML) und Python ausgeführt werden können. Es bietet die Infrastruktur für verteiltes Computing und parallele Verarbeitung für Ihren ML-Workflow. Ray-Cluster sind in Vertex AI eingebunden, um die Kapazitätsverfügbarkeit für kritische ML-Arbeitslasten oder zu Spitzenzeiten sicherzustellen. Im Gegensatz zu benutzerdefinierten Jobs, bei denen der Trainingsdienst die Ressource nach Abschluss des Jobs freigibt, bleiben Ray-Cluster bis zum Löschen verfügbar. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
-
Ray on Vertex AI (RoV)
- Ray on Vertex AI wurde so entwickelt, dass Sie denselben Open-Source-Ray-Code zum Schreiben von Programmen und Entwickeln von Anwendungen in Vertex AI mit minimalen Änderungen verwenden können. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
-
Ray im Vertex AI SDK für Python
- Das hier verwendete Ray on Vertex AI SDK für Python ist eine Version des Vertex AI SDK für Python, die die Funktionen von Ray Client, Ray BigQuery Connector, der Ray-Clusterverwaltung in Vertex AI und Vorhersagen in Vertex AI umfasst. Weitere Informationen finden Sie unter Einführung in das Vertex AI SDK für Python.
-
Recall
- Der Prozentsatz der echten nächsten Nachbarn, die vom Index zurückgegeben werden. Wenn z. B. eine Abfrage nach 20 nächsten Nachbarn 19 der „grundlegend echten“ nächsten Nachbarn zurückgibt, beträgt der Recall 19/20x100 = 95 %.
-
Empfehlungssystem
- Ein Empfehlungssystem ist ein auf maschinellem Lernen basierendes System, das Nutzern hilft, in einem großen Korpus interessante Inhalte zu finden. Es generiert eine kleinere Teilmenge von Kandidaten aus einem potenziell großen Korpus, bewertet die Kandidaten und bewertet das Ranking und bewertet das endgültige Ranking, um zusätzliche Einschränkungen zu berücksichtigen. Weitere Informationen finden Sie in der Übersicht zu Empfehlungssystemen.
-
Regularisierung
- Die Regularisierung ist ein Verfahren, mit dem eine Überanpassung in Modellen für maschinelles Lernen verhindert wird. Zu einer Überanpassung kommt es, wenn ein Modell die Trainingsdaten zu gut lernt, was zu einer schlechten Leistung für nicht gesehene Daten führt. Ein speziell erwähnter Regularisierungstyp ist das vorzeitige Beenden, bei dem das Training angehalten wird, bevor der Verlust bei einem Validierungs-Dataset zunimmt. Dies deutet auf einen Rückgang der Generalisierungsleistung hin. Weitere Informationen finden Sie unter Überanpassung: L2-Regularisierung.
-
Dienstkonto
- In der Google Cloud ist ein Dienstkonto ein spezieller Kontotyp, der nicht von einer Person, sondern von einer Anwendung oder einer VM-Instanz verwendet wird. Anwendungen verwenden Dienstkonten für autorisierte API-Aufrufe.
-
Dienst-Agent
- Ein Dienst-Agent bezieht sich auf ein von Google verwaltetes Dienstkonto. Es wird verwendet, wenn ein Dienst Zugriff auf Ressourcen benötigt, die von einem anderen Dienst erstellt wurden. Dies ist beispielsweise der Fall, wenn Dataflow- oder Dataproc-Dienste während der Laufzeit Instanzen erstellen müssen oder wenn eine Cloud Functions-Funktion den Key Management Service (KMS) zum Schutz der Cloud Functions-Funktion verwenden möchte. Dienst-Agents werden von Google Cloud automatisch erstellt, wenn ein Dienst sie erfordert. Sie werden in der Regel verwendet, um den Zugriff auf Ressourcen zu verwalten und verschiedene Aufgaben im Namen des Dienstes auszuführen. Weitere Informationen finden Sie unter Dienst-Agents.
-
Zusammenfassende Messwerte
- Zusammenfassende Messwerte sind ein einzelner Wert für jeden Messwertschlüssel in einer Testausführung. Beispiel: Die Testgenauigkeit eines Tests ist die Genauigkeit, die anhand eines Test-Datasets am Ende des Trainings berechnet wird und als einzelner zusammenfassender Messwert erfasst werden kann.
-
TensorBoard
- TensorBoard ist eine Suite von Webanwendungen zum Visualisieren und Verständnis von TensorFlow-Ausführungen und -Modellen. Weitere Informationen finden Sie unter TensorBoard.
-
TensorBoard-Instanz
- Eine TensorBoard-Instanz ist eine regionalisierte Ressource, in der Vertex AI TensorBoard-Experimente gespeichert werden, die mit einem Projekt verknüpft sind. Sie können in einem Projekt mehrere TensorBoard-Instanzen erstellen, z. B. wenn Sie mehrere CMEK-fähige Instanzen haben möchten. Dies entspricht der TensorBoard-Ressource in der API.
-
TensorBoard-Ressourcenname
- Der Name einer TensorBoard-Ressource wird verwendet, um eine Vertex AI TensorBoard-Instanz vollständig zu identifizieren. Das Format lautet: projects/PROJEKT-ID_ODER_-NUMBER/locations/REGION/tensorboards/TENSORBOARD-INSTANZ-ID.
-
zeitlicher Versatz, Zeitstempel
- Der zeitliche Versatz bezieht sich auf den Beginn eines Videos.
-
Zeitachsenmesswerte
- Zeitachsenmesswerte sind Längengradmesswerte, wobei jeder Wert einen Schritt im Teil der Trainingsroutine einer Ausführung darstellt. Zeitachsenmesswerte werden in Vertex AI TensorBoard gespeichert. Vertex AI Experiments speichert einen Verweis auf die Vertex TensorBoard-Ressource.
-
Token
- Ein Token in einem Sprachmodell ist die atomare Einheit, die das Modell trainiert und Vorhersagen für Wörter, Morpheme und Zeichen trifft. In Domains außerhalb von Language Models können Tokens andere Arten von atomaren Einheiten darstellen. Beim maschinellen Sehen kann ein Token beispielsweise ein Teil eines Bildes sein. Weitere Informationen finden Sie unter Tokens auflisten und zählen.
-
Richtung
- Eine „Flugbahn“ bezieht sich auf eine Abfolge von Schritten oder Aktionen, die von einem Agent oder Modell ausgeführt werden. Es wird häufig bei der Bewertung von generativen Modellen verwendet, bei denen die Fähigkeit des Modells, Text, Code oder andere Inhalte zu generieren, bewertet wird. Es gibt verschiedene Arten von Flugbahnmesswerten, die zum Bewerten von generativen Modellen verwendet werden können, darunter „Genaue Übereinstimmung der Flugbahn“, „Übereinstimmung der Flugbahn in der richtigen Reihenfolge“, „Übereinstimmung der Flugbahn jeder Reihenfolge“ und „Genauigkeit der Flugbahn“. Diese Messwerte messen die Ähnlichkeit zwischen der Modellausgabe und einer Reihe von Menschen-generierten Referenzausgaben.
-
Transformator
- Ein "Transformer" ist eine neuronale Netzwerkarchitektur, die den meisten hochmodernen generativen Modellen zugrunde liegt. Es wird in verschiedenen Language Model-Anwendungen verwendet, einschließlich der Übersetzung. Transformatoren bestehen aus einem Encoder und einem Decoder. Der Encoder wandelt Eingabetext in eine Zwischendarstellung um und der Decoder wandelt dies in eine nützliche Ausgabe um. Sie nutzen einen Selbstaufmerksamkeitsmechanismus, um Kontext aus den Wörtern zu sammeln, die das zu verarbeitende Wort umgeben. Während das Training eines Transformers erhebliche Ressourcen erfordert, ist die Feinabstimmung eines vortrainierten Transformers für bestimmte Anwendungen effizienter.
-
Transformer-Bestärkendes Lernen
- Transformer-Restforcement Learning (TRL) bezieht sich auf die Anwendung von Reinforcement Learning (RL)-Techniken, um Transformer-basierte Modelle für generative Aufgaben zu trainieren. Dieser Ansatz befasst sich mit den Einschränkungen herkömmlicher generativer Modelle, die oft mit der Vorhersage des nächsten Tokens trainiert werden, ohne ausdrücklich auf gewünschte Eigenschaften wie Kohärenz, Sicherheit und Sensibilität zu optimieren. TRL optimiert das Sprachmodell direkt für komplexe Ziele mithilfe von RL, wobei häufig menschliches Feedback (RLHF) zur Steuerung des Lernprozesses berücksichtigt wird. Beispiele hierfür sind die Feinabstimmung von Modellen, um mithilfe von Belohnungsmodellen weniger schädliche Inhalte zu generieren, und die TRL zur Feinabstimmung des generativen Modells Gemma. Weitere Informationen finden Sie unter Hugging Face DLCs: Fine-tuning Gemma with Transformer Reinforcement Learning (TRL) on Vertex AI.
-
Richtig positives Ergebnis
- Ein richtig positives Ergebnis bezieht sich auf eine Vorhersage, bei der das Modell eine positive Klasse korrekt identifiziert. Wenn ein Modell beispielsweise trainiert wird, Kunden zu identifizieren, die eine Jacke kaufen werden, würde ein richtig positives Ergebnis korrekt voraussagen, dass ein Kunde so etwas kaufen wird.
-
Validierung
- Bei der Validierung wird die Qualität der Vorhersagen eines Modells mit dem Validierungs-Dataset verglichen. Dazu müssen Messwerte definiert werden, um die Qualität, Geschwindigkeit, Einhaltung von Anweisungen und Sicherheit der generierten Inhalte zu messen. Bei der Validierung werden häufig mit Labels versehene Daten (Eingabeaufforderungen und erwartete Ausgaben) verwendet, um die Vorhersagen des Modells mit der Grundwahrheit zu vergleichen. Messwerte wie der F1-Wert (zur Klassifizierung) und der ROUGE-L-Wert (zur Zusammenfassung) können verwendet werden. Der Prozess umfasst auch das Testen von Grenzfällen und ungewöhnlichen Szenarien, um die Stabilität sicherzustellen. Bei bereitgestellten Modellen trägt die kontinuierliche Überwachung und Erfassung gemeinsamer Datenpunkte und Grenzfälle dazu bei, zukünftige Validierungsmaßnahmen zu verbessern.
-
vector
- Ein Vektor bezieht sich auf eine numerische Darstellung von Text, Bildern oder Videos, die Beziehungen zwischen Eingaben erfasst. Modelle für maschinelles Lernen eignen sich zum Erstellen von Einbettungen, indem in großen Datasets Muster identifiziert werden. Anwendungen können mithilfe von Einbettungen Sprache verarbeiten und produzieren, indem sie komplexe Bedeutungen und inhaltsspezifische semantische Beziehungen erkennen. Weitere Informationen finden Sie unter Embeddings APIs – Übersicht.
-
Vertex AI Experiments
- Mit Vertex AI Experiments können Nutzer Folgendes nachverfolgen: 1. Schritte der Testausführung (z. B. Vorverarbeitung und Training). 2. Eingaben (z. B. Algorithmus, Parameter und Datasets). 3. Ausgaben dieser Schritte (z. B. Modelle, Prüfpunkte und Messwerte)
-
Vertex AI Model Registry
- Die Vertex AI Model Registry ist ein zentrales Repository, in dem Sie den Lebenszyklus Ihrer ML-Modelle verwalten können. In der Vertex AI Model Registry finden Sie eine Übersicht Ihrer Modelle, damit Sie neue Versionen besser organisieren, verfolgen und trainieren können. Wenn Sie eine Modellversion bereitstellen möchten, können Sie sie direkt aus der Registry einem Endpunkt zuweisen oder mithilfe von Aliassen Modelle auf einem Endpunkt bereitstellen. Weitere Informationen finden Sie unter Einführung in die Vertex AI Model Registry.
-
Videosegment
- Ein Videosegment wird durch den zeitlichen Versatz am Beginn und Ende eines Videos identifiziert.
-
Virtual Private Cloud (VPC)
- Eine Virtual Private Cloud ist ein konfigurierbarer On-Demand-Pool freigegebener Rechenressourcen, der in einer öffentlichen Cloud-Umgebung zugewiesen wird und ein Maß an Isolation zwischen verschiedenen Organisationen bietet, die diese Ressourcen verwenden.
-
Worteinbettung
- Mit Worteinbettungen können Wörter als dichte Vektoren von Gleitkommawerten dargestellt werden. Dadurch können ähnliche Wörter eine ähnliche Codierung haben. Worteinbettungen werden in der generativen KI häufig verwendet, um die Beziehungen zwischen Wörtern zu erfassen und neuen Text oder Code (keine Quellen) zu generieren. In generativer KI können mithilfe von Worteinbettungen Modelle trainiert werden, die neuen Text oder Code generieren können. Wenn generative KI-Modelle die Beziehungen zwischen Wörtern verstehen, können sie neue Inhalte erstellen, die sowohl kohärent als auch relevant sind.
-
Zero-Shot-Prompt (direktes Prompting)
- In generativer KI ist ein Zero-Shot-Prompt ein Prompt, mit dem ein Large Language Model (LLM) eine Aufgabe ohne zusätzliches Training oder zusätzliche Beispiele ausführen kann. Dies steht im Gegensatz zu Methoden wie Wenig-Shot-Prompts, bei denen dem Modell Beispieleingaben und -ausgaben zur Verfügung stehen. Ein Zero-Shot-Prompt basiert ausschließlich auf dem vorhandenen Wissen des Modells, um eine Antwort zu generieren. Weitere Informationen finden Sie unter Zero-Shot-Prompt.