Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Für die Neural Architecture Search von Vertex AI gibt es keine Anforderungen zum Entwerfen Ihrer Trainer. Wählen Sie ein beliebiges Trainings-Framework aus, um den Trainer zu erstellen.
Für ein PyTorch-Training mit großen Datenmengen empfiehlt es sich, das verteilte Trainingsparadigma zu verwenden und Daten aus Cloud Storage zu lesen.
Informationen zum Verbessern der Trainingsleistung finden Sie im Blogpost Effizientes PyTorch-Training mit Vertex AI. Mit WebDataset und den verteilten Schulungsstrategien DistributedDataParallel oder FullyShardedDataParallel können Sie die Leistung mit Daten in Cloud Storage insgesamt um das 6-fache steigern. Die Trainingsleistung mit Daten in Cloud Storage ähnelt der Trainingsleistung mit Daten auf einem lokalen Laufwerk.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-18 (UTC)."],[],[],null,["# Efficient PyTorch training with cloud data\n\nVertex AI Neural Architecture Search has no requirements describing how to\ndesign your trainers. Therefore, choose any training frameworks to build the trainer.\n\nFor PyTorch training with large amounts of data, the best practice is to use the distributed training\nparadigm and to read data from Cloud Storage.\nCheck out the blog post\n[Efficient PyTorch training with Vertex AI](https://cloud.google.com/blog/products/ai-machine-learning/efficient-pytorch-training-with-vertex-ai) for methods to improve the training\nperformance. You can see an overall 6x performance improvement with data on\nCloud Storage using `WebDataset` and choosing `DistributedDataParallel` or\n`FullyShardedDataParallel` distributed training strategies. The training\nperformance using data on Cloud Storage is similar to the training performance using data on\na local disk.\n\nThe prebuilt\n[MNasNet classification example](https://github.com/google/vertex-ai-nas/blob/main/pytorch/classification/cloud_search_main.py)\nhas incorporated these methods into its training pipeline."]]