Well-Architected Framework: Leistungsoptimierung

Last reviewed 2025-02-14 UTC

Diese Säule des Google Cloud Well-Architected Framework enthält Empfehlungen zur Optimierung der Leistung von Arbeitslasten inGoogle Cloud.

Dieses Dokument richtet sich an Architekten, Entwickler und Administratoren, die Arbeitslasten in Google Cloudplanen, entwerfen, bereitstellen und verwalten.

Die Empfehlungen in diesem Säule können Ihrem Unternehmen helfen, effizient zu arbeiten, die Kundenzufriedenheit zu verbessern, den Umsatz zu steigern und die Kosten zu senken. Beispiel: Wenn die Backend-Verarbeitungszeit einer Anwendung abnimmt, genießen Nutzer schnellere Antwortzeiten, was zu einer höheren Nutzerbindung und mehr Umsatz führen kann.

Bei der Leistungsoptimierung kann es zu einem Kompromiss zwischen Leistung und Kosten kommen. Manchmal kann die Leistungsoptimierung jedoch helfen, die Kosten zu senken. ​​Wenn die Last zunimmt, kann Autoscaling beispielsweise für eine vorhersagbare Leistung sorgen, da die Systemressourcen nicht überlastet werden. Außerdem können Sie mit Autoscaling die Kosten senken, indem Sie in Zeiten geringer Auslastung nicht verwendete Ressourcen entfernen.

Die Leistungsoptimierung ist ein kontinuierlicher Prozess, keine einmalige Aktivität. Das folgende Diagramm zeigt die Phasen des Leistungsoptimierungsprozesses:

Leistungsoptimierung

Der Prozess der Leistungsoptimierung ist ein fortlaufender Zyklus, der die folgenden Phasen umfasst:

  1. Anforderungen definieren: Definieren Sie detaillierte Leistungsanforderungen für jede Ebene des Anwendungsstacks, bevor Sie Ihre Anwendungen entwerfen und entwickeln. Berücksichtigen Sie die wichtigsten Arbeitslastmerkmale und Leistungserwartungen, um die Ressourcenzuweisung zu planen.
  2. Entwerfen und bereitstellen: Verwenden Sie elastische und skalierbare Designmuster, mit denen Sie die Leistungsanforderungen erfüllen können.
  3. Überwachen und analysieren: Überwachen Sie die Leistung kontinuierlich mithilfe von Logs, Tracing, Messwerten und Benachrichtigungen.
  4. Optimieren: Ziehen Sie potenzielle Redesigns in Betracht, wenn sich Ihre Anwendungen weiterentwickeln. Passen Sie die Größe der Cloud-Ressourcen an und nutzen Sie neue Funktionen, um sich ändernden Leistungsanforderungen gerecht zu werden.

    Wie im vorherigen Diagramm dargestellt, setzen Sie den Zyklus aus Monitoring, Neubewertung der Anforderungen und Anpassung der Cloud-Ressourcen fort.

Grundsätze und Empfehlungen zur Leistungsoptimierung, die speziell auf KI- und ML-Arbeitslasten zugeschnitten sind, finden Sie im Well-Architected Framework unter KI- und ML-Perspektive: Leistungsoptimierung.

Grundprinzipien

Die Empfehlungen im Bereich „Leistungsoptimierung“ des Well-Architected Framework sind den folgenden Grundprinzipien zugeordnet:

Beitragende

Autoren:

Weitere Beitragende:

Ressourcenzuweisung planen

Dieses Prinzip im Bereich „Leistungsoptimierung“ des Google Cloud Well-Architected Framework enthält Empfehlungen zur Planung von Ressourcen für Ihre Arbeitslasten inGoogle Cloud. Darin wird die Bedeutung der Definition detaillierter Anforderungen vor dem Entwerfen und Entwickeln von Anwendungen für die Cloud-Bereitstellung oder ‑Migration hervorgehoben.

Übersicht über die Grundsätze

Um Ihre geschäftlichen Anforderungen zu erfüllen, ist es wichtig, dass Sie die Leistungsanforderungen für Ihre Anwendungen vor dem Entwurf und der Entwicklung definieren. Definieren Sie diese Anforderungen so detailliert wie möglich für die Anwendung als Ganzes und für jede Schicht des Anwendungsstacks. In der Speicherebene müssen Sie beispielsweise den Durchsatz und die E/A-Vorgänge pro Sekunde (IOPS) berücksichtigen, die die Anwendungen benötigen.

Planen Sie Anwendungsdesigns von Anfang an mit Blick auf Leistung und Skalierbarkeit. Berücksichtigen Sie Faktoren wie die Anzahl der Nutzer, das Datenvolumen und das potenzielle Wachstum im Laufe der Zeit.

Die Leistungsanforderungen für die einzelnen Arbeitslasten variieren und hängen vom Typ der Arbeitslast ab. Jede Arbeitslast kann eine Mischung aus Komponentensystemen und ‑diensten mit jeweils eigenen Leistungseigenschaften enthalten. Ein System, das für die regelmäßige Batchverarbeitung großer Datasets zuständig ist, hat beispielsweise andere Leistungsanforderungen als eine interaktive Virtual-Desktop-Lösung. Ihre Optimierungsstrategien müssen auf die spezifischen Anforderungen der einzelnen Arbeitslasten zugeschnitten sein.

Wählen Sie Dienste und Funktionen aus, die den Leistungszielen der einzelnen Arbeitslasten entsprechen. Es gibt keine Universallösung für die Leistungsoptimierung. Wenn Sie jede Arbeitslast optimieren, kann das gesamte System eine optimale Leistung und Effizienz erzielen.

Berücksichtigen Sie die folgenden Arbeitslastmerkmale, die Ihre Leistungsanforderungen beeinflussen können:

  • Bereitstellungs-Archetyp: Der Bereitstellungs-Archetyp, den Sie für eine Anwendung auswählen, kann Ihre Auswahl von Produkten und Funktionen beeinflussen, die dann die Leistung bestimmen, die Sie von Ihrer Anwendung erwarten können.
  • Ressourcenplatzierung: Wenn Sie eine Region Google Cloudfür Ihre Anwendungsressourcen auswählen, empfehlen wir, die Latenz für Endnutzer zu minimieren, die Vorschriften zur Datenlokalität einzuhalten und die Verfügbarkeit der erforderlichen Google Cloud Produkte und ‑Dienste sicherzustellen.
  • Netzwerkverbindung: Wählen Sie Netzwerkdienste aus, die den Datenzugriff und die Bereitstellung von Inhalten optimieren. Nutzen Sie das globale Netzwerk, die Hochgeschwindigkeits-Backbones, die Interconnect-Standorte und die Caching-Dienste von Google Cloud.
  • Optionen für das Anwendungshosting: Wenn Sie eine Hostingplattform auswählen, müssen Sie die Leistungsmerkmale der einzelnen Optionen bewerten. Berücksichtigen Sie beispielsweise Bare-Metal-, Virtual Machine-, Container- und serverlose Plattformen.
  • Speicherstrategie: Wählen Sie eine optimale Speicherstrategie aus, die auf Ihren Leistungsanforderungen basiert.
  • Ressourcenkonfigurationen: Der Maschinentyp, die IOPS und der Durchsatz können sich erheblich auf die Leistung auswirken. Außerdem müssen Sie früh in der Designphase geeignete Sicherheitsfunktionen und ihre Auswirkungen auf Ressourcen berücksichtigen. Wenn Sie Sicherheitsfunktionen planen, sollten Sie sich auf die erforderlichen Leistungseinbußen einstellen, um unvorhergesehene Auswirkungen zu vermeiden.

Empfehlungen

Beachten Sie die Empfehlungen in den folgenden Abschnitten, um eine optimale Ressourcenzuweisung zu gewährleisten.

Kontingente konfigurieren und verwalten

Achten Sie darauf, dass Ihre Anwendung nur die erforderlichen Ressourcen wie Arbeitsspeicher, Speicherplatz und Rechenleistung verwendet. Eine Überzuweisung kann zu unnötigen Ausgaben führen, während eine Unterzuweisung die Leistung beeinträchtigen kann.

Um die elastische Skalierung zu ermöglichen und dafür zu sorgen, dass ausreichend Ressourcen verfügbar sind, sollten Sie die Kapazität Ihrer Kontingente regelmäßig im Blick behalten. Außerdem sollten Sie die Kontingentnutzung im Blick behalten, um potenzielle Skalierungsbeschränkungen oder Probleme mit der Überzuweisung zu erkennen und dann fundierte Entscheidungen zur Ressourcenverteilung zu treffen.

Aufklären und Bewusstsein schaffen

Informieren Sie Ihre Nutzer über die Leistungsanforderungen und stellen Sie Informationsmaterial zu effektiven Techniken zur Leistungsverwaltung bereit.

Um den Fortschritt zu bewerten und Bereiche mit Verbesserungspotenzial zu identifizieren, sollten Sie regelmäßig die Ziel- und die tatsächliche Leistung dokumentieren. Führen Sie einen Lasttest für Ihre Anwendung durch, um potenzielle Breakpoints zu ermitteln und zu verstehen, wie Sie die Anwendung skalieren können.

Leistungsmesswerte überwachen

Mit Cloud Monitoring können Sie Trends in Leistungsmesswerten analysieren, die Auswirkungen von Tests analysieren, Benachrichtigungen für kritische Messwerte definieren und rückblickende Analysen durchführen.

Active Assist ist eine Reihe von Tools, die Statistiken und Empfehlungen zur Optimierung der Ressourcennutzung liefern können. Mithilfe dieser Empfehlungen können Sie die Ressourcenzuweisung anpassen und die Leistung verbessern.

Elastizität nutzen

Dieses Prinzip im Bereich „Leistungsoptimierung“ des Google Cloud Well-Architected Framework enthält Empfehlungen zur Einbeziehung von Elastizität, d. h. der Möglichkeit, Ressourcen dynamisch an Änderungen der Arbeitslastanforderungen anzupassen.

Durch die Elastizität können verschiedene Komponenten eines Systems unabhängig voneinander skaliert werden. Durch diese gezielte Skalierung lassen sich Leistung und Kosteneffizienz verbessern, da Ressourcen genau dort zugewiesen werden, wo sie benötigt werden. So wird eine Über- oder Unterversorgung mit Ressourcen vermieden.

Übersicht über die Grundsätze

Die Leistungsanforderungen eines Systems wirken sich direkt darauf aus, wann und wie das System vertikal oder horizontal skaliert wird. Sie müssen die Kapazität des Systems bewerten und die Last ermitteln, die das System in der Baseline bewältigen soll. Anschließend müssen Sie festlegen, wie das System auf eine Erhöhung oder Verringerung der Last reagieren soll.

Wenn die Last zunimmt, muss das System horizontal skaliert, vertikal hochskaliert oder beides werden. Fügen Sie für die horizontale Skalierung Replikatknoten hinzu, damit das System über genügend Gesamtkapazität verfügt, um die erhöhte Nachfrage zu erfüllen. Beim vertikalen Skalieren werden die vorhandenen Komponenten der Anwendung durch Komponenten mit mehr Kapazität, mehr Arbeitsspeicher und mehr Speicherplatz ersetzt.

Wenn die Last abnimmt, muss das System herunterskaliert werden (horizontal, vertikal oder beides).

Definieren Sie die Umstände, unter denen das System skaliert wird. Planen Sie, Systeme für bekannte Zeiträume mit hohem Traffic manuell zu skalieren. Verwenden Sie Tools wie Autoscaling, die auf eine Zunahme oder Abnahme der Last reagieren.

Empfehlungen

Wenn Sie die Elastizität nutzen möchten, sollten Sie die Empfehlungen in den folgenden Abschnitten berücksichtigen.

Spitzenlastzeiten planen

Sie müssen einen effizienten Skalierungspfad für bekannte Ereignisse planen, z. B. für erwartete Zeiträume mit erhöhter Kundennachfrage.

Sie sollten Ihr System vor bekannten Phasen mit hohem Traffic skalieren. Wenn Sie beispielsweise ein Einzelhandelsunternehmen sind, erwarten Sie, dass die Nachfrage während saisonaler Schlussverkäufe steigt. Wir empfehlen Ihnen, Ihre Systeme vor diesen Verkäufen manuell zu skalieren, damit Ihr System die erhöhte Last sofort bewältigen oder vorhandene Limits sofort anpassen kann. Andernfalls kann es mehrere Minuten dauern, bis das System Ressourcen als Reaktion auf Echtzeitänderungen hinzufügt. Die Kapazität Ihrer Anwendung steigt möglicherweise nicht schnell genug, sodass es bei einigen Nutzern zu Verzögerungen kommt.

Bei unbekannten oder unerwarteten Ereignissen wie einem plötzlichen Anstieg der Nachfrage oder des Traffics können Sie Autoscaling-Funktionen verwenden, um eine elastische Skalierung basierend auf Messwerten auszulösen. Diese Messwerte können die CPU-Auslastung, die Bereitstellungskapazität des Load Balancers, die Latenz und sogar benutzerdefinierte Messwerte umfassen, die Sie in Cloud Monitoring definieren.

Angenommen, Sie haben eine Anwendung, die in einer Compute Engine-MIG (verwaltete Instanzgruppe) ausgeführt wird. Für diese Anwendung gilt die Anforderung, dass jede Instanz optimal funktioniert, bis die durchschnittliche CPU-Auslastung 75 % erreicht. In diesem Beispiel können Sie eine Autoscaling-Richtlinie definieren, die weitere Instanzen erstellt, wenn die CPU-Auslastung den Schwellenwert erreicht. Diese neu erstellten Instanzen helfen, die Last zu bewältigen. So bleibt die durchschnittliche CPU-Auslastung auf einem optimalen Niveau, bis die maximale Anzahl von Instanzen erreicht ist, die Sie für die MIG konfiguriert haben. Wenn die Nachfrage sinkt, werden durch die Autoscaling-Richtlinie die nicht mehr benötigten Instanzen entfernt.

Reservieren Sie Ressourcen-Slots in BigQuery oder passen Sie die Grenzwerte für Autoscaling-Konfigurationen in Spanner mit dem verwalteten Autoscaler an.

Vorausschauende Skalierung verwenden

Wenn Ihre Systemkomponenten Compute Engine umfassen, müssen Sie prüfen, ob vorausschauendes Autoscaling für Ihre Arbeitslast geeignet ist. Beim vorausschauenden Autoscaling wird die zukünftige Last anhand der Verlaufstrends Ihrer Messwerte prognostiziert, z. B. der CPU-Auslastung. Prognosen werden alle paar Minuten neu berechnet, sodass das Autoscaling seine Prognose schnell auf die letzten Änderungen der Überlastung anpasst. Ohne vorausschauendes Autoscaling kann das Autoscaling eine Gruppe nur in direkter Reaktion auf beobachtete Laständerungen in Echtzeit skalieren. Das vorausschauende Autoscaling arbeitet mit Echtzeitdaten und Verlaufsdaten, um sowohl die aktuelle als auch die prognostizierte Last zu berücksichtigen.

Serverlose Architekturen implementieren

Erwägen Sie die Implementierung einer serverlosen Architektur mit serverlosen Diensten, die von Natur aus elastisch sind, z. B. die folgenden:

Im Gegensatz zum Autoscaling in anderen Diensten, für das Regeln abgestimmt werden müssen (z. B. Compute Engine), erfolgt das serverlose Autoscaling sofort und kann auf null Ressourcen herunterskaliert werden.

Autopilot-Modus für Kubernetes verwenden

Für komplexe Anwendungen, die mehr Kontrolle über Kubernetes erfordern, sollten Sie den Autopilot-Modus in Google Kubernetes Engine (GKE) in Betracht ziehen. Der Autopilot-Modus bietet standardmäßig Automatisierung und Skalierbarkeit. GKE skaliert Knoten und Ressourcen automatisch basierend auf dem Traffic. GKE verwaltet Knoten, erstellt neue Knoten für Ihre Anwendungen und konfiguriert automatische Upgrades und Reparaturen.

Modulares Design fördern

Dieses Prinzip im Bereich „Leistungsoptimierung“ des Google Cloud Well-Architected Framework enthält Empfehlungen zur Förderung eines modularen Designs. Modulare Komponenten und übersichtliche Schnittstellen können eine flexible Skalierung, unabhängige Updates und eine zukünftige Komponententrennung ermöglichen.

Übersicht über die Grundsätze

Die Abhängigkeiten zwischen den Anwendungskomponenten und den Systemkomponenten verstehen, um ein skalierbares System zu entwerfen.

Das modulare Design ermöglicht Flexibilität und Stabilität, unabhängig davon, ob anfangs eine monolithische oder eine Mikrodienstarchitektur bereitgestellt wurde. Wenn Sie das System in klar definierte, unabhängige Module mit eindeutigen Schnittstellen zerlegen, können Sie einzelne Komponenten an bestimmte Anforderungen anpassen.

Durch gezieltes Skalieren können Sie die Ressourcennutzung optimieren und Kosten auf folgende Weise senken:

  • Es werden nur die erforderlichen Ressourcen für jede Komponente bereitgestellt und weniger anspruchsvollen Komponenten werden weniger Ressourcen zugewiesen.
  • In Zeiten mit hohem Traffic werden zusätzliche Ressourcen hinzugefügt, um die Nutzerfreundlichkeit zu gewährleisten.
  • Entfernt nicht ausgelastete Ressourcen, ohne die Leistung zu beeinträchtigen.

Die Modularität verbessert auch die Wartungsfreundlichkeit. Kleinere, in sich geschlossene Einheiten sind leichter zu verstehen, zu debuggen und zu aktualisieren, was zu schnelleren Entwicklungszyklen und einem geringeren Risiko führen kann.

Die Modularität bietet zwar erhebliche Vorteile, Sie müssen aber die potenziellen Leistungseinbußen berücksichtigen. Die vermehrte Kommunikation zwischen Modulen kann zu Latenz und Overhead führen. Achten Sie auf ein ausgewogenes Verhältnis zwischen Modularität und Leistung. Ein stark modulares Design ist möglicherweise nicht universell geeignet. Wenn die Leistung entscheidend ist, kann ein enger gekoppelter Ansatz sinnvoll sein. Der Systementwurf ist ein iterativer Prozess, bei dem Sie Ihr modulares Design kontinuierlich überprüfen und optimieren.

Empfehlungen

Beachten Sie die Empfehlungen in den folgenden Abschnitten, um modulare Designs zu fördern.

Lose Kopplung

Entwerfen Sie eine lose gekoppelte Architektur. Unabhängige Komponenten mit minimalen Abhängigkeiten können Ihnen helfen, skalierbare und robuste Anwendungen zu erstellen. Bei der Planung der Grenzen für Ihre Dienste müssen Sie die Anforderungen an Verfügbarkeit und Skalierbarkeit berücksichtigen. Wenn eine Komponente beispielsweise Anforderungen hat, die sich von denen Ihrer anderen Komponenten unterscheiden, können Sie sie als eigenständigen Dienst konzipieren. Implementieren Sie einen Plan für kontrollierte Fehler für weniger wichtige untergeordnete Prozesse oder Dienste, die sich nicht auf die Reaktionszeit der primären Dienste auswirken.

Entwicklung an Nebenläufigkeit und Parallelität orientieren

Entwickeln Sie Ihre Anwendung so, dass sie mehrere Aufgaben gleichzeitig ausführen kann, z. B. mehrere Nutzeranfragen verarbeiten oder Hintergrundjobs ausführen, während Nutzer mit Ihrem System interagieren. Teilen Sie große Aufgaben in kleinere Teile auf, die gleichzeitig von mehreren Dienstinstanzen verarbeitet werden können. Mit der gleichzeitigen Ausführung von Aufgaben können Sie Funktionen wie die automatische Skalierung verwenden, um die Ressourcenzuweisung in Produkten wie den folgenden zu erhöhen:

Modularität für flexible Ressourcenzuweisung ausgleichen

Achten Sie nach Möglichkeit darauf, dass jede Komponente nur die für bestimmte Vorgänge erforderlichen Ressourcen (z. B. Arbeitsspeicher, Speicher und Rechenleistung) verwendet. Eine Überzuweisung von Ressourcen kann zu unnötigen Kosten führen, während eine Unterzuweisung die Leistung beeinträchtigen kann.

Gut definierte Schnittstellen verwenden

Sorgen Sie dafür, dass modulare Komponenten effektiv über klare, standardisierte Schnittstellen (z. B. APIs und Message Queues) kommunizieren, um den Overhead durch Übersetzungsebenen oder unnötigen Traffic zu reduzieren.

Zustandslose Modelle verwenden

Ein zustandsloses Modell kann dazu beitragen, dass Sie jede Anfrage oder Interaktion mit dem Dienst unabhängig von vorherigen Anfragen verarbeiten können. Dieses Modell erleichtert die Skalierbarkeit und Wiederherstellbarkeit, da Sie den Dienst erweitern, verkleinern oder neu starten können, ohne die Daten zu verlieren, die für laufende Anfragen oder Prozesse erforderlich sind.

Ergänzende Technologien auswählen

Wählen Sie Technologien aus, die das modulare Design ergänzen. Bewerten Sie Programmiersprachen, Frameworks und Datenbanken hinsichtlich ihrer Unterstützung für Modularität.

Weitere Informationen finden Sie in den folgenden Ressourcen:

Leistung kontinuierlich überwachen und verbessern

Dieses Prinzip im Bereich „Leistungsoptimierung“ des Google Cloud Well-Architected Framework enthält Empfehlungen zur kontinuierlichen Überwachung und Verbesserung der Leistung.

Nachdem Sie Anwendungen bereitgestellt haben, können Sie ihre Leistung mithilfe von Logs, Tracing, Messwerten und Benachrichtigungen kontinuierlich überwachen. Wenn Ihre Anwendungen wachsen und sich weiterentwickeln, können Sie die Trends in diesen Datenpunkten nutzen, um Ihre Leistungsanforderungen neu zu bewerten. Möglicherweise müssen Sie Teile Ihrer Anwendungen neu gestalten, um die Leistung zu erhalten oder zu verbessern.

Übersicht über die Grundsätze

Der Prozess der kontinuierlichen Leistungsverbesserung erfordert robuste Monitoring-Tools und ‑Strategien. Mit Cloud-Tools zur Beobachtbarkeit können Sie wichtige Leistungskennzahlen (KPIs) wie Latenz, Durchsatz, Fehlerraten und Ressourcenauslastung erfassen. Cloudumgebungen bieten verschiedene Methoden, um detaillierte Leistungsbewertungen für die Anwendung, das Netzwerk und die Endnutzererfahrung durchzuführen.

Die Verbesserung der Leistung ist ein fortlaufender Prozess, der einen vielschichtigen Ansatz erfordert. Die folgenden wichtigen Mechanismen und Prozesse können Ihnen helfen, die Leistung zu steigern:

  • Um eine klare Richtung vorzugeben und den Fortschritt zu verfolgen, sollten Sie Leistungsziele definieren, die mit Ihren Geschäftszielen übereinstimmen. Setzen Sie SMART-Ziele: spezifisch, messbar, angemessen, relevant und terminiert.
  • Um die Leistung zu messen und Bereiche mit Verbesserungspotenzial zu ermitteln, müssen Sie KPI-Messwerte erfassen.
  • Verwenden Sie visualisierte Workflows in Monitoring-Tools, um Ihre Systeme kontinuierlich auf Probleme zu überwachen. Verwenden Sie Techniken zur Prozesszuordnung der Architektur, um Redundanzen und Ineffizienzen zu identifizieren.
  • Um eine Kultur der kontinuierlichen Verbesserung zu schaffen, sollten Sie Schulungen und Programme anbieten, die das Wachstum Ihrer Mitarbeiter fördern.
  • Um proaktive und kontinuierliche Verbesserungen zu fördern, sollten Sie Ihre Mitarbeiter und Kunden dazu anregen, fortlaufend Feedback zur Leistung Ihrer Anwendung zu geben.

Empfehlungen

Beachten Sie die Empfehlungen in den folgenden Abschnitten, um modulare Designs zu fördern.

Klare Leistungsziele und ‑messwerte definieren

Definieren Sie klare Leistungsziele, die mit Ihren Geschäftszielen übereinstimmen. Dazu ist ein tiefes Verständnis der Architektur Ihrer Anwendung und der Leistungsanforderungen der einzelnen Anwendungskomponenten erforderlich.

Optimieren Sie vorrangig die kritischsten Komponenten, die sich direkt auf Ihre wichtigsten Geschäftsfunktionen und die Nutzererfahrung auswirken. Damit diese Komponenten weiterhin effizient ausgeführt werden und Ihren Geschäftsanforderungen entsprechen, sollten Sie spezifische und messbare Leistungsziele festlegen. Diese Ziele können Antwortzeiten, Fehlerraten und Grenzwerte für die Ressourcennutzung umfassen.

Mit diesem proaktiven Ansatz können Sie potenzielle Engpässe erkennen und beheben, die Ressourcenzuweisung optimieren und letztendlich eine nahtlose und leistungsstarke Nutzererfahrung bieten.

Leistungsbewertung

Überwachen Sie Ihre Cloud-Systeme kontinuierlich auf Leistungsprobleme und richten Sie Benachrichtigungen für potenzielle Probleme ein. Mithilfe von Monitoring und Benachrichtigungen können Sie Probleme erkennen und beheben, bevor sie sich auf Nutzer auswirken. Mithilfe der Anwendungsprofilerstellung lassen sich Engpässe identifizieren und der Ressourcenverbrauch optimieren.

Sie können Tools verwenden, die eine effektive Fehlerbehebung und Netzwerkoptimierung ermöglichen. Verwenden Sie Google Cloud Observability, um Bereiche mit hohem CPU-, Arbeitsspeicher- oder Netzwerkverbrauch zu identifizieren. Mit diesen Funktionen können Entwickler die Effizienz steigern, Kosten senken und die Nutzerfreundlichkeit verbessern. Im Network Intelligence Center werden Visualisierungen der Topologie Ihrer Netzwerkinfrastruktur angezeigt. So können Sie Pfade mit hoher Latenz identifizieren.

Kontinuierliche Verbesserung fördern

Schaffen Sie eine Kultur der kontinuierlichen Verbesserung, die sowohl der Anwendung als auch der Nutzerfreundlichkeit zugutekommt.

Bieten Sie Ihren Mitarbeitern Schulungs- und Weiterbildungsmöglichkeiten, die ihre Fähigkeiten und ihr Wissen in Bezug auf Leistungstechniken für Cloud-Dienste verbessern. Richten Sie eine Community of Practice (CoP) ein und bieten Sie Mentoring- und Coaching-Programme an, um die Entwicklung der Mitarbeitenden zu fördern.

Um reaktive Leistungsverwaltung zu vermeiden und proaktive Leistungsverwaltung zu fördern, sollten Sie fortlaufendes Feedback von Ihren Mitarbeitern, Kunden und Stakeholdern einholen. Sie können den Prozess auch gamifizieren, indem Sie KPIs zur Leistung erfassen und diese Messwerte den Teams regelmäßig in Form einer Liga präsentieren.

Um die Leistung und die Nutzerzufriedenheit im Zeitverlauf zu analysieren, empfehlen wir, Nutzerfeedback quantitativ und qualitativ zu erfassen. Mit dem HEART-Framework können Sie Nutzerfeedback in fünf Kategorien erfassen:

  • Zufriedenheit
  • Engagement
  • Akzeptanz
  • Kundenbindung
  • Erfolg

Mit einem solchen Framework können Sie Entwickler mit datengestütztem Feedback, nutzerorientierten Messwerten, umsetzbaren Statistiken und einem klaren Verständnis der Ziele motivieren.