Vertex AI 将 AI Platform 和 AutoML 整合到一个界面中。本页面为熟悉 AI Platform 的用户比较 Vertex AI 和 AI Platform。
自定义训练
借助 Vertex AI,您可以使用 AutoML 训练模型,也可以执行自定义训练(这是与 AI Platform Training 更类似的工作流)。
任务 | AI Platform Training | Vertex AI |
---|---|---|
选择要使用的机器学习框架版本 | Google Cloud 控制台用户需要设置框架名称和框架版本。 | |
运行时版本 - 提交训练作业时,请指定包含所需框架和框架版本的运行时版本数。 | 预构建容器 - 提交自定义训练作业时,请指定对应于框架和框架版本的预构建的容器的 Artifact Registry URI。 | |
使用自定义容器提交训练作业 | 构建您自己的自定义容器,将其托管在 Artifact Registry 上,并用它来运行您的训练应用。 | |
设置要使用的 Google Cloud 区域 | 将训练作业提交到全局端点 (ml.googleapis.com ) 时指定区域的名称。 |
将自定义训练作业提交到区域性端点,例如 us-central1-aiplatform.googleapis.com 。没有全局端点。AI Platform 中可用的某些区域在 Vertex AI 中不可用。请参阅“位置”页面上的受支持区域列表。 |
为分布式训练指定机器配置 | 指定在指定训练集群角色(masterConfig 、workerConfig 、parameterServerConfig 和 evaluatorConfig )后命名的配置。 |
配置是通用列表 - 在 CustomJobSpec.workerPoolSpecs[] 中指定机器配置。 |
使用 Python 软件包提交训练作业 | 与 Python 软件包相关的字段在 TrainingInput 中是顶级。 |
与 Python 软件包相关的字段在 pythonPackageSpec 中进行组织。 |
指定机器类型 |
|
|
提交超参数调节作业 |
提交具有 hyperparameters 配置的训练作业。无论训练作业是否进行超参数调节,它都会创建 TrainingJob API 资源。 |
提交使用 studySpec 配置的超参数调节作业。这会创建一个顶级 API 资源 (HyperparameterTuningJob )。提交未进行超参数调节的自定义训练作业会创建顶层 CustomJob API 资源。 |
创建训练流水线,以通过其他操作编排训练作业 | 没有用于编排的内置 API 资源;使用 AI Platform Pipelines、Kubeflow 或其他编排工具。 | 创建 TrainingPipeline 资源,以通过模型部署来编排训练作业。 |
预测
任务 | AI Platform Prediction | Vertex AI |
---|---|---|
选择要使用的机器学习框架版本 | Google Cloud 控制台用户需要设置框架名称和框架版本。 | |
运行时版本 - 部署模型时,请指定包含所需框架和框架版本的运行时版本数。 | 预构建容器 - 部署模型时,请指定与您的框架和框架版本相对应的预构建容器的 Artifact Registry URI。使用与您的区域端点匹配的多区域选项 - 例如,对于 us-central1 端点,请使用 us-docker.pkg.dev 。 |
|
运行带有预测的自定义代码 | 使用自定义预测例程。 | 在 Vertex AI 上使用定义预测例程。 |
设置要使用的 Google Cloud 区域 | 在全局 API 端点 (ml.googleapis.com ) 上创建模型时,指定区域的名称。 |
在区域端点上创建模型,例如 us-central1-aiplatform.googleapis.com 。没有全局端点。AI Platform 中可用的某些区域在 Vertex AI 中不可用。请参阅“位置”页面上的受支持区域列表。 |
存储模型工件 | 模型工件存储在 Cloud Storage 中。模型工件没有关联的 API 资源。 | 模型工件可使用托管式模型存储空间,并与 Model 资源相关联。在不使用 Vertex AI 托管数据集的情况下,您仍然可以部署存储在 Cloud Storage 中的模型。 |
模型部署 | 直接部署模型使其可用于在线预测。 |
您可以创建一个端点对象,以提供用于提供在线预测的资源。然后,将模型部署到端点。调用 predict() 方法来请求预测。 |
请求批量预测 | 您可以请求对存储在 Cloud Storage 中的模型进行批量预测,并在请求中指定运行时版本。或者,您也可以对已部署的模型请求批量预测,并使用您在模型部署期间指定的运行时版本。 | 您将模型上传到 Vertex AI,然后指定预构建容器或自定义容器以执行预测。 |
在线预测请求数 | JSON 结构包含一个实例列表。 | JSON 结构包含实例列表和参数字段。 |
指定机器类型 | 创建版本时,请指定任何可用机器类型。 | 不支持来自 AI Platform 的旧版在线预测机器类型 (MLS1)。只有 Compute Engine 机器类型可用。 |
部署模型 | 创建模型资源,然后创建版本资源。 | 创建模型资源,创建端点资源,然后将模型部署到端点。在端点中指定流量拆分。 |
Vertex Explainable AI
您可以在 AI Explanations for AI Platform 和 Vertex Explainable AI 中获取表格和图片模型的特征归因。
任务 | AI Explanations for AI Platform | Vertex Explainable AI |
---|---|---|
获取表格模型的特征归因 | 使用采样 Shapley 或积分梯度获取表格模型的特征归因。 | |
获取图片模型的特征归因 | 使用积分梯度或 XRAI 获取图片模型的特征归因。 |