Gemini für Google Cloud und verantwortungsbewusste Anwendung von KI

In diesem Dokument wird das Konzept von Gemini für Google Cloud hinsichtlich der Funktionen, Einschränkungen und Risiken von generativer KI beschrieben.

Funktionen und Risiken von Large Language Models

Large Language Models (LLMs) können viele nützliche Aufgaben ausführen, z. B.:

  • Sprache übersetzen,
  • Text zusammenfassen,
  • Code generieren und kreative Texte erstellen,
  • Chatbots und virtuelle Assistenten zum Einsatz bringen,
  • Suchmaschinen und Empfehlungssysteme ergänzen.

Zugleich bergen die sich ständig weiterentwickelnden technischen Möglichkeiten von LLMs die Gefahr von Fehlanwendungen, Missbrauch und unbeabsichtigten oder unvorhergesehenen Folgen.

LLMs können unerwartete Ausgaben generieren, einschließlich Text, der anstößig, beleidigend oder sachlich falsch ist. Da LLMs unglaublich vielseitig sind, ist es schwierig, genau vorherzusagen, welche Arten von unbeabsichtigten oder unvorhergesehenen Ausgaben sie erzeugen können.

Angesichts dieser Risiken und Komplexität wurde Gemini für Google Cloud unter Berücksichtigung der KI‑Grundsätze von Google entwickelt. Es ist jedoch wichtig, dass Nutzer einige Einschränkungen von Gemini für Google Cloud kennen, damit sie den Dienst sicher und verantwortungsvoll nutzen können.

Einschränkungen bei Gemini für Google Cloud

Bei der Verwendung von Gemini für Google Cloud können unter anderem folgende Einschränkungen auftreten:

  • Grenzfälle: Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut dargestellt werden. Diese Fälle können zu Einschränkungen bei der Ausgabe von Gemini-Modellen führen, z. B. Modellselbstüberschätzung, Fehlinterpretation des Kontexts oder unangemessene Ausgaben.

  • Modellhalluzinationen, Fundierung und Faktizität: Den Gemini-Modellen mangelt es möglicherweise an der nötigen Fundierung und Faktizität in Bezug auf die reale Welt und physikalische Eigenschaften oder an einem korrekten Verständnis davon. Diese Einschränkung kann zu Modellhalluzinationen führen, bei denen Gemini für Google Cloud Ausgaben generiert, die zwar plausibel klingen, aber faktisch falsch, irrelevant, unangemessen oder sinnlos sind. Zu den Halluzinationen gehört auch das Erfinden von Links zu Webseiten, die nicht existieren und nie existiert haben. Weitere Informationen finden Sie unter Bessere Prompts für Gemini für Google Cloud schreiben.

  • Datenqualität und Optimierung: Die Qualität, Genauigkeit (Accuracy) und Verzerrung der Prompt-Daten, die in Gemini für Google Cloud-Produkte eingegeben werden, können erhebliche Auswirkungen auf die Leistung haben. Wenn Nutzer ungenaue oder falsche Prompts eingeben, kann Gemini für Google Cloudsuboptimale oder falsche Antworten zurückgeben.

  • Verzerrungsverstärkung: Sprachmodelle können versehentlich vorhandene Vorurteile in den Trainingsdaten verstärken. Dies kann zu Ergebnissen führen, die gesellschaftliche Vorurteile und die ungleiche Behandlung bestimmter Gruppen weiter verstärken.

  • Sprachqualität: Gemini für Google Cloudbietet zwar beeindruckende mehrsprachige Funktionen in den von uns ausgewerteten Benchmarks, die meisten unserer Benchmarks (einschließlich aller Fairness-Evaluierungen) sind jedoch in amerikanischem Englisch.

    Die von Sprachmodellen gelieferte Dienstqualität ist möglicherweise nicht für alle Nutzer einheitlich. Beispielsweise ist die Textgenerierung für einige Dialekte oder Sprachvarianten, die in den Trainingsdaten seltener vorkommen, möglicherweise nicht so effektiv. Die Leistung ist bei anderen Sprachen als der Englischen und bei weniger stark repräsentierten englischen Sprachvarianten möglicherweise geringer.

  • Fairness-Benchmarks und ‑Untergruppen: Die Fairness-Analysen des Google Research-Teams für Gemini-Modelle bieten keine vollständige Darstellung der verschiedenen potenziellen Risiken. Beispielsweise konzentrieren wir uns auf Vorurteile im Hinblick auf Geschlecht, ethnische Herkunft und Religion. Die Analyse erfolgt jedoch nur anhand von Daten und Modellausgaben in amerikanischem Englisch.

  • Begrenzte Fachkenntnisse: Gemini-Modelle wurden mit Google Cloud -Technologie trainiert, haben aber möglicherweise nicht das nötige Wissen, um präzise und detaillierte Antworten im Fall von hoch spezialisierten oder technischen Themen zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen.

    Wenn Sie den Bereich Gemini in der Google Cloud Console verwenden, ist Gemini nicht kontextsensitiv für Ihre spezifische Umgebung. Daher kann Gemini Fragen wie „Wann habe ich das letzte Mal eine VM erstellt?“ nicht beantworten.

    In einigen Fällen sendet Gemini für Google Cloud ein bestimmtes Segment Ihres Kontexts an das Modell, um eine kontextbezogene Antwort zu erhalten, z. B. wenn Sie auf der Dienstseite „Error Reporting“ auf die Schaltfläche Vorschläge zur Fehlerbehebung klicken.

Gemini-Filterung für Sicherheit und schädliche Inhalte

Prompts und Antworten von Gemini für Google Cloud werden anhand einer umfassenden Liste von Sicherheitsattributen geprüft, die für den jeweiligen Anwendungsfall gelten. Mit diesen Sicherheitsattributen sollen Inhalte herausgefiltert werden, die gegen unsere Richtlinien zur zulässigen Verwendung verstoßen. Wenn eine Ausgabe als schädlich eingestuft wird, wird die Antwort blockiert.

Nächste Schritte