Gemini für Google Cloud und verantwortungsbewusste Anwendung von KI

In diesem Dokument wird beschrieben, wie Gemini for Google Cloud im Hinblick auf die Funktionen, Einschränkungen und Risiken konzipiert ist, die mit generativer KI verbunden sind.

Funktionen und Risiken von Large Language Models

Large Language Models (LLMs) können viele nützliche Aufgaben ausführen, z. B.:

  • Sprache übersetzen
  • Text zusammenfassen
  • Code und kreatives Schreiben generieren.
  • Chatbots und virtuelle Assistenten unterstützen
  • Suchmaschinen und Empfehlungssysteme ergänzen

Gleichzeitig besteht durch die sich entwickelnden technischen Fähigkeiten von LLMs das Risiko, dass sie falsch eingesetzt oder missbraucht werden und unbeabsichtigte oder unvorhergesehene Folgen haben.

LLMs können unerwartete Ausgaben generieren, einschließlich Text, der beleidigend, grob oder tatsächlich falsch ist. Da LLMs unglaublich vielseitig sind, kann es schwierig sein, genau vorherzusagen, welche Art unbeabsichtigter oder unvorhergesehener Ausgaben sie erzeugen könnten.

Angesichts dieser Risiken und Komplexität wurde Gemini for Google Cloud gemäß den KI-Grundsätzen von Google entwickelt. Es ist jedoch wichtig, dass Nutzer einige der Einschränkungen von Gemini kennen, damit Google Cloud sicher und verantwortungsvoll eingesetzt werden kann.

Einschränkungen von Gemini for Google Cloud

Zu den Einschränkungen, die bei der Verwendung von Gemini für Google Cloud auftreten können, gehören unter anderem:

  • Grenzfälle Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut dargestellt werden. Diese Fälle können zu Einschränkungen bei der Ausgabe von Gemini-Modellen führen, z. B. Modellselbstüberschätzung, Fehlinterpretation des Kontexts oder unangemessene Ausgaben.

  • Modellhalluzinationen, Fundierung und Fakten Gemini-Modellen mangelt es möglicherweise an Grundlagen und Fakten aus der realen Welt, physischen Eigenschaften oder korrektem Verständnis. Diese Einschränkung kann zu Modellhalluzinationen führen, bei denen Gemini für Google Cloud Ausgaben generiert, die zwar plausibel klingen, aber faktisch falsch, irrelevant, unangemessen oder unsinnig sind. Halluzinationen können auch das Erstellen von Links zu Webseiten umfassen, die nicht existieren und nie existiert haben. Weitere Informationen finden Sie unter Bessere Prompts für Gemini für Google Cloud schreiben.

  • Datenqualität und ‑optimierung Die Qualität, Genauigkeit und Verzerrung der Prompt-Daten, die in Gemini for Google Cloud-Produkte eingegeben werden, können erhebliche Auswirkungen auf die Leistung haben. Wenn Nutzer ungenaue oder falsche Eingabeaufforderungen eingeben, gibt Gemini for Google Cloud möglicherweise suboptimale oder falsche Antworten zurück.

  • Voreingenommenheitsverstärkung Sprachmodelle können versehentlich vorhandene Vorurteile in den Trainingsdaten verstärken. Dies kann zu Ergebnissen führen, die gesellschaftliche Vorurteile und die ungleiche Behandlung bestimmter Gruppen weiter verstärken.

  • Sprachqualität: Gemini für Google Cloud bietet beeindruckende mehrsprachige Funktionen in den von uns ausgewerteten Benchmarks. Die meisten unserer Benchmarks (einschließlich aller Fairness-Evaluierungen) sind jedoch in amerikanischem Englisch.

    Die von Sprachmodellen gelieferte Dienstqualität ist möglicherweise nicht für alle Nutzer einheitlich. Beispielsweise ist die Texterzeugung für einige Dialekte oder Sprachvarianten aufgrund ihres geringen Vorkommens in den Trainingsdaten möglicherweise nicht so effektiv. Die Leistung ist bei anderen Sprachen als der Englischen und bei weniger stark repräsentierten englischen Sprachvarianten möglicherweise geringer.

  • Fairness-Benchmarks und Untergruppen Die Fairness-Analysen des Google Research-Teams für Gemini-Modelle bieten keine vollständige Darstellung der verschiedenen potenziellen Risiken. Beispielsweise konzentrieren wir uns auf Vorurteile im Hinblick auf Geschlecht, ethnische Herkunft, Ethnie und Religion. Die Analyse erfolgt jedoch nur für englischsprachige Daten und die Modellausgaben.

  • Begrenzte Fachkenntnisse: Gemini-Modelle wurden mit Google Cloud-Technologie trainiert, haben aber möglicherweise nicht das nötige Wissen, um präzise und detaillierte Antworten im Fall von hoch spezialisierten oder technischen Themen zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen.

    Wenn Sie den Bereich Gemini in der Google Cloud Console verwenden, ist Gemini nicht kontextbezogen auf Ihre spezifische Umgebung. Daher kann es Fragen wie „Wann habe ich zuletzt eine VM erstellt?“ nicht beantworten.

    In einigen Fällen sendet Gemini for Google Cloud ein bestimmtes Segment Ihres Kontexts an das Modell, um eine kontextspezifische Antwort zu erhalten. Das ist beispielsweise der Fall, wenn Sie auf der Seite „Fehler melden“ auf die Schaltfläche Vorschläge zur Fehlerbehebung klicken.

Gemini-Sicherheits- und Toxizitätsfilter

Prompts und Antworten von Gemini für Google Cloud werden anhand einer umfassenden Liste von Sicherheitsattributen überprüft, die für jeden Anwendungsfall gelten. Mit diesen Sicherheitsattributen sollen Inhalte herausgefiltert werden, die gegen unsere Richtlinien zur Fairen Nutzung verstoßen. Wenn eine Ausgabe als schädlich eingestuft wird, wird die Antwort blockiert.

Nächste Schritte