透過集合功能整理內容
你可以依據偏好儲存及分類內容。
PyTorch - TPU 疑難排解
本指南提供疑難排解資訊,協助您找出並解決在 Cloud TPU 上訓練 PyTorch 模型時可能遇到的問題。如需 Cloud TPU 的一般入門指南,請參閱 PyTorch 快速入門導覽課程。
如果模型訓練速度緩慢,請產生並查看指標報表。
如要自動分析指標報表並提供摘要,請在執行工作負載時設定 PT_XLA_DEBUG=1。
如要進一步瞭解可能導致模型訓練速度變慢的問題,請參閱「已知的效能警告」。
如要深入分析工作負載並找出瓶頸,請參閱下列資源:
您可以指定環境變數來控制 PyTorch/XLA 軟體堆疊的行為。
如果遇到非預期的錯誤,並需要協助,請在 GitHub 回報問題。
管理 XLA 張量
XLA 張量特性說明使用 XLA 張量和共用權重時,應做和不應做的事。
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2025-06-16 (世界標準時間)。
[[["容易理解","easyToUnderstand","thumb-up"],["確實解決了我的問題","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["難以理解","hardToUnderstand","thumb-down"],["資訊或程式碼範例有誤","incorrectInformationOrSampleCode","thumb-down"],["缺少我需要的資訊/範例","missingTheInformationSamplesINeed","thumb-down"],["翻譯問題","translationIssue","thumb-down"],["其他","otherDown","thumb-down"]],["上次更新時間:2025-06-16 (世界標準時間)。"],[],[]]