跳至主要内容
Google Cloud
文档 技术领域
  • AI 和机器学习
  • 应用开发
  • 应用托管
  • 计算
  • 数据分析和流水线
  • 数据库
  • 分布式云、混合云和多云
  • 生成式 AI
  • 行业解决方案
  • 网络
  • 可观测性和监控
  • 安全
  • Storage
跨产品工具
  • 访问权限和资源管理
  • 费用和用量管理
  • Google Cloud SDK、语言、框架和工具
  • 基础架构即代码
  • 迁移
相关网站
  • Google Cloud 首页
  • 免费试用和免费层级
  • 架构中心
  • 博客
  • 联系销售团队
  • Google Cloud 开发者中心
  • Google 开发者中心
  • Google Cloud Marketplace
  • Google Cloud Marketplace 文档
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud 支持团队
  • Google Cloud Tech YouTube 频道
/
  • English
  • Deutsch
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
控制台 登录
  • Vertex AI
指南 参考文档 示例 支持 资源
联系我们 免费开始使用吧
Google Cloud
  • 文档
    • 指南
    • 参考文档
    • 示例
    • 支持
    • 资源
  • 技术领域
    • 更多
  • 跨产品工具
    • 更多
  • 相关网站
    • 更多
  • 控制台
  • 联系我们
  • 免费开始使用吧
  • Discover
  • 概览
  • Vertex AI 简介
  • Vertex AI 上的 MLOps
  • Vertex AI 的界面
  • Vertex AI 新手指南
    • 训练 AutoML 模型
    • 训练自定义模型
    • 通过自定义模型进行推理
    • 使用 Vertex AI 和 Python SDK 训练模型
      • 简介
      • 前提条件
      • 创建笔记本
      • 创建数据集
      • 创建训练脚本
      • 训练模型
      • 推理
  • 集成式机器学习框架
    • PyTorch
    • TensorFlow
  • 面向 BigQuery 用户的 Vertex AI
  • 术语库
  • 开始使用
  • 设置项目和开发环境
  • 安装 Vertex AI SDK for Python
  • 选择训练方法
  • 试用教程
    • 教程概览
    • AutoML 教程
      • Hello 图片数据
        • 概览
        • 设置您的项目和环境
        • 创建数据集并导入图片
        • 训练 AutoML 图片分类模型
        • 评估和分析模型性能
        • 将模型部署到端点并进行预测
        • 清理您的项目
      • Hello 表格数据
        • 概览
        • 设置您的项目和环境
        • 创建数据集并训练 AutoML 分类模型
        • 部署模型并请求推理
        • 清理您的项目
      • Hello 文本数据
        • 概览
        • 设置您的项目和环境
        • 创建数据集并导入文档
        • 训练 AutoML 文本分类模型
        • 将模型部署到端点并进行预测
        • 清理您的项目
    • 自定义训练教程
      • 训练自定义表格模型
      • 训练 TensorFlow Keras 图片分类模型
        • 概览
        • 设置您的项目和环境
        • 训练自定义图片分类模型
        • 提供自定义图片分类模型的预测结果
        • 清理您的项目
      • 使用自定义数据微调图片分类模型
    • 自定义训练 Jupyter 笔记本教程
    • 使用 Terraform 创建用户管理的笔记本实例
  • 使用生成式 AI 和 LLM
  • 生成式 AI 简介
  • Vertex AI Search 简介
  • 适用于 AutoML 文本用户的 Gemini
  • 从 AutoML 文本迁移到 Gemini
  • 使用 Vertex AI 开发工具
  • 开发工具概览
  • 使用 Vertex AI SDK
    • 概览
    • Vertex AI SDK for Python 简介
    • Vertex AI SDK for Python 类
      • Vertex AI SDK 类概览
      • 数据类
      • 训练类
      • 模型类
      • 预测类
      • 跟踪类
  • 在笔记本中使用 Vertex AI
    • 选择笔记本解决方案
    • Colab Enterprise
      • 快速入门:使用控制台创建笔记本
      • 连接到运行时
      • 管理运行时和运行时模板
        • 创建运行时模板
        • 创建运行时
    • Vertex AI Workbench
      • 简介
      • Vertex AI Workbench 笔记本教程
      • 实例
        • 实例简介
        • 开始使用
          • 使用控制台创建实例
          • 安排笔记本运行
        • 设置实例
          • 创建实例
          • 创建特定版本的实例
          • 创建具有用户凭据访问权限的实例
          • 使用机密计算创建实例
          • 添加 conda 环境
          • 空闲机器关停
          • 使用自定义容器创建实例
          • 创建启用了 Dataproc 的实例
          • 使用第三方凭据创建实例
          • 通过元数据管理功能
          • 使用预留
        • 连接到数据
          • 从 JupyterLab 查询 BigQuery 表中的数据
          • 访问 JupyterLab 中的 Cloud Storage 存储桶和文件
        • 探索和直观呈现数据
          • 在 BigQuery 中探索和直观呈现数据
        • 维护
          • 管理 conda 环境
          • 备份和恢复
            • 将笔记本保存到 GitHub
            • 使用快照
            • 使用 Cloud Storage
          • 关停实例
          • 升级实例的环境
          • 使用 SSH 访问 JupyterLab
          • 将数据迁移到新实例
          • 更改机器类型并配置 GPU
          • 使用 Terraform 预配资源
        • 监控
          • 监控健康状况
        • 控制访问权限
          • 访问权限控制
          • 管理对实例的访问权限
          • 管理对实例的 JupyterLab 界面的访问权限
          • 使用客户管理的加密密钥
          • 在服务边界内使用实例
        • 排查 Vertex AI Workbench 实例问题
        • Vertex AI Workbench 版本说明
      • 代管式笔记本
        • 代管式笔记本简介
        • 开始使用
          • 使用 Cloud 控制台创建代管式笔记本实例
          • 安排代管式笔记本运行
        • 设置托管式笔记本实例
          • 创建托管式笔记本实例
          • 使用自定义容器创建实例
          • 在 Dataproc 集群上运行代管式笔记本实例
          • 将 Dataproc Serverless Spark 与代管式笔记本搭配使用
          • 空闲机器关停
          • 代管式笔记本版本
        • 连接到数据
          • 从 JupyterLab 查询 BigQuery 表中的数据
          • 访问 JupyterLab 中的 Cloud Storage 存储桶和文件
        • 探索和直观呈现数据
          • 概览
          • 在 BigQuery 中探索和直观呈现数据
        • 开发模型
          • 在代管式笔记本实例中开发模型
        • 部署
          • 使用执行程序运行笔记本文件
          • 使用参数运行笔记本执行
        • 维护
          • 迁移到 Vertex AI Workbench 实例
          • 将笔记本保存到 GitHub
          • 更改机器类型并配置代管式笔记本实例的 GPU
          • 升级代管式笔记本实例的环境
          • 将数据迁移到新的代管式笔记本实例
        • 监控
          • 审核日志记录
        • 控制访问权限
          • 访问权限控制
          • 管理对实例的访问权限
          • 管理对实例的 JupyterLab 界面的访问权限
          • 使用客户管理的加密密钥
          • 设置网络
          • 在服务边界内使用代管式笔记本实例
        • 排查代管式笔记本问题
      • 用户管理的笔记本
        • 用户管理的笔记本简介
        • 开始使用
          • 使用 Cloud 控制台创建用户管理的笔记本实例
        • 设置用户管理的笔记本实例
          • 创建用户代管的笔记本实例
          • 创建特定版本的实例
          • 在补丁和支持终止日期后创建实例
          • 安装依赖项
          • 选择虚拟机映像
          • 使用自定义容器创建实例
        • 探索数据
          • 在 Google Cloud 上使用 R 进行数据科学研究:探索性数据分析教程
        • 监控
          • 监控健康状况
          • 审核日志记录
        • 控制访问权限
          • 访问权限控制
          • 管理对实例的访问权限
          • 管理对实例的 JupyterLab 界面的访问权限
          • 客户管理的加密密钥
          • 在服务边界内使用用户管理的笔记本实例
          • 将安全强化型虚拟机与用户管理的笔记本搭配使用
          • 教程:在 VPC 网络中创建笔记本实例
        • 维护
          • 迁移到 Vertex AI Workbench 实例
          • 将笔记本保存到 GitHub
          • 使用快照备份数据
          • 关停用户管理的笔记本实例
          • 更改机器类型并配置用户管理的笔记本实例的 GPU
          • 升级用户管理的笔记本实例的环境
          • 将数据迁移到新的用户管理的笔记本实例
          • 使用 Notebooks API 注册旧版实例
          • 使用 SSH 访问 JupyterLab
        • 排查用户管理的笔记本问题
  • Terraform 对 Vertex AI 的支持
  • 预测性 AI 模型开发
  • 概览
  • AutoML 模型开发
    • AutoML 训练概览
    • 图片数据
      • 分类
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
      • 对象检测
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
      • 使用 Base64 对图片数据进行编码
      • 导出 AutoML Edge 模型
    • 表格数据
      • 概览
      • 表格数据简介
      • 表格工作流
        • 概览
        • 特征工程
        • 端到端 AutoML
          • 概览
          • 训练模型
          • 获取在线推理结果
          • 获取批量推理结果
        • TabNet
          • 概览
          • 训练模型
          • 获取在线推理结果
          • 获取批量推理结果
        • Wide & Deep
          • 概览
          • 训练模型
          • 获取在线推理结果
          • 获取批量推理结果
        • 预测
          • 概览
          • 训练模型
          • 获取在线推理结果
          • 获取批量推理结果
        • 价格
        • 服务账号
        • 管理配额
      • 使用 AutoML 执行分类和回归
        • 概览
        • 快速入门:AutoML 分类(Cloud 控制台)
        • 准备训练数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 查看模型架构
        • 获取在线推理结果
        • 获取批量推理结果
        • 导出模型
      • 使用 AutoML 进行预测
        • 概览
        • 准备训练数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取推理结果
        • 分层预测
      • 使用 ARIMA+ 执行预测
      • 使用 Prophet 执行预测
      • 执行实体协调
      • 用于分类和回归的特征归因
      • 用于预测的特征归因
      • 适用于表格 AutoML 数据的数据类型和转换
      • 预测的训练参数
      • 表格数据的数据分块
      • 创建表格训练数据的最佳做法
      • 使用 Timeseries Insights 进行预测
    • 文本数据
      • 分类
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
      • 实体提取
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
      • 情感分析
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
    • 视频数据
      • 动作识别
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
      • 分类
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
      • 对象跟踪
        • 准备数据
        • 创建数据集
        • 训练模型
        • 评估模型
        • 获取预测结果
        • 解读结果
    • 训练 AutoML Edge 模型
      • 使用控制台
      • 使用 API
  • 自定义训练
    • 自定义训练概览
    • 加载和准备数据
      • 数据准备概览
      • 将 Cloud Storage 用作已装载的文件系统
      • 装载 NFS 共享以进行自定义训练
      • 使用代管式数据集
    • Vertex AI 自定义训练
      • Vertex AI 中自定义训练的概览
      • 准备训练应用
        • 了解自定义训练服务
        • 准备训练代码
        • 使用预构建容器
          • 为预构建容器创建一个 Python 训练应用
          • 用于自定义训练的预构建容器
        • 使用自定义容器
          • 用于训练的自定义容器
          • 创建自定义容器
          • 在本地容器化和运行训练代码
        • 使用 Deep Learning VM Image 和 Deep Learning Containers
      • 在永久性资源上进行训练
        • 概览
        • 创建永久性资源
        • 在永久性资源上运行训练作业
        • 获取永久性资源信息
        • 重新启动永久性资源
        • 删除永久性资源
      • 配置训练作业
        • 选择自定义训练方法
        • 为训练配置容器设置
        • 配置用于训练的计算资源
        • 将预留与训练结合使用
        • 将 Spot 虚拟机用于训练
      • 提交训练作业
        • 创建自定义作业
        • 超参数调节
          • 超参数调节概览
          • 使用超参数调节
        • 创建训练流水线
        • 根据资源可用性安排作业
        • 使用分布式训练
        • 使用 Cloud TPU 虚拟机进行训练
        • 使用专用 IP 地址进行自定义训练
        • 使用 Private Service Connect 接口进行训练
      • 执行神经架构搜索
        • 概览
        • 设置环境
        • 初级教程
        • 最佳实践和工作流
        • 代理任务设计
        • 优化 PyTorch 的训练速度
        • 使用预构建的训练容器和搜索空间
      • 监控和调试
        • 使用交互式 shell 监控和调试训练
        • 分析模型训练性能
      • 使用 Vertex AI Vizier 进行优化
        • Vertex AI Vizier 概览
        • 创建 Vertex AI Vizier 研究
        • Vertex AI Vizier 笔记本教程
      • 获取预测结果
      • 教程:构建用于持续训练的流水线
    • Ray on Vertex AI
      • Ray on Vertex AI 概览
      • 为 Ray on Vertex AI 进行设置
      • 创建 Ray on Vertex AI 集群
      • 监控 Vertex AI 上的 Ray 集群
      • 扩缩 Ray on Vertex AI 集群
      • 在 Vertex AI 上开发 Ray 应用
      • 在 Ray on Vertex AI 集群上运行 Spark
      • 将 Ray on Vertex AI 与 BigQuery 搭配使用
      • 部署模型并获取预测结果
      • 删除 Ray 集群
      • Ray on Vertex AI 笔记本教程
  • 生成式 AI 模型开发
  • 概览
  • 创建和管理数据集
  • 概览
  • AutoML 模型的数据拆分
  • 创建注解集
  • 删除注释集
  • 添加标签(控制台)
  • 从数据集导出元数据和注解
  • 管理数据集版本
  • 使用 Data Catalog 搜索模型和数据集资源
  • 获取推理结果
  • 概览
  • 配置模型以进行推理
    • 导出模型工件以进行推理
    • 用于推理的预构建容器
    • 用于推理的自定义容器要求
    • 使用自定义容器进行推理
    • 使用优化的 TensorFlow 运行时
    • 使用 NVIDIA Triton 提供推理服务
    • 自定义推理例程
  • 获取在线推理结果
    • 创建端点
      • 选择端点类型
      • 创建公共端点
      • 使用专用公共端点(推荐)
      • 使用基于 Private Service Connect 的专用私有端点(推荐)
      • 使用专用服务访问端点
    • 将模型部署到端点
      • 模型部署概览
      • 用于推理的计算资源
      • 使用 Google Cloud 控制台部署模型
      • 使用 gcloud CLI 或 Vertex AI API 部署模型
      • 使用滚动部署替换已部署的模型
      • 取消部署模型并删除端点
      • 使用 Cloud TPU 进行在线推理
      • 将预留与推理搭配使用
      • 将 Spot 虚拟机与推理结合使用
    • 获取在线推理结果
    • 查看端点指标
    • 跨部署共享资源
    • 使用在线推理日志记录
  • 获取批量推理结果
    • 通过自定义模型进行批量预测
    • 从自行部署的 Model Garden 模型获取批量预测结果
  • 提供生成式 AI 模型
    • 部署生成式 AI 模型
    • 通过 Saxml 使用 Cloud TPU 提供 Gemma 开放模型
    • 使用 Saxml 通过多主机 Cloud TPU 应用 Llama 3 开放模型
    • 使用多主机 GPU 部署提供 DeepSeek-V3 模型
  • Vertex AI 推理笔记本教程
  • 执行矢量相似度搜索
  • Vector Search 概览
  • 试试看
  • Vector Search 快速入门
  • 开始前的准备工作
  • 混合搜索简介
  • 创建和管理索引
    • 输入数据格式和结构
    • 创建和管理索引
    • 索引配置参数
    • 更新和重建索引
    • 过滤矢量匹配
  • 部署和查询索引
    • 公共端点
      • 部署
      • 查询
    • 专用服务访问通道(VPC 对等互连)
      • 设置 VPC 网络对等互连连接
      • 部署
      • 查询
      • JSON Web 令牌身份验证
    • Private Service Connect (PSC)
      • 使用 Private Service Connect 设置 Vector Search
      • 查询
      • JSON Web 令牌身份验证
  • 监控已部署的索引
  • 笔记本教程
  • 使用自定义组织政策
  • 获取支持
  • 机器学习操作 (MLOps)
  • 管理功能
    • Vertex AI 中的功能管理
    • Vertex AI Feature Store
      • 关于 Vertex AI Feature Store
      • 设置特征
        • 准备数据源
        • 创建特征组
        • 创建特征
      • 设置在线服务
        • 在线传送类型
        • 创建在线存储区实例
        • 创建特征视图实例
      • 控制访问权限
        • 控制对资源的访问权限
      • 同步在线存储区
        • 开始数据同步
        • 列出同步操作
        • 更新特征视图中的地图项
      • 投放功能
        • 从在线存储区传送特征
        • 传送历史特征值
      • 监控
        • 监控功能
      • 管理特征资源
        • 列出特征组
        • 可列出特征
        • 更新特征组
        • 更新特征
        • 删除特征组
        • 删除特征
      • 管理在线存储区资源
        • 列出在线存储区
        • 列出特征视图
        • 更新在线存储区
        • 更新特征视图
        • 删除在线存储区
        • 删除特征视图
      • 特征元数据
        • 更新标签
      • 搜索资源
        • 搜索资源
        • 在 Data Catalog 中搜索资源元数据
      • 管理嵌入
        • 使用嵌入进行搜索
      • 笔记本教程
        • Vertex AI Feature Store Jupyter 笔记本
    • Vertex AI Feature Store(旧版)
      • Vertex AI Feature Store(旧版)简介
      • 数据模型和资源
      • 源数据要求
      • 设置
      • 最佳实践
      • 使用 Vertex AI Feature Store(旧版)
        • 管理特征存储区
        • 管理实体类型
        • 管理和查找特征
        • 批量导入
        • 流式导入
        • 在线传送
        • 提取训练数据
        • 导出特征值
        • 删除特征值
        • 监控
        • 控制对资源的访问权限
  • 管理模型
    • Vertex AI Model Registry 简介
    • Model Registry 中的版本控制
    • 将模型导入 Model Registry
    • 在 Model Registry 中复制模型
    • 删除模型
    • 与 BigQuery ML 集成
    • 使用模型别名
    • 使用模型标签
    • 使用 Data Catalog 搜索模型和数据集资源
  • 评估模型
    • Vertex AI 中的模型评估
    • 在 Vertex AI 中执行模型评估
    • 针对公平性进行模型评估
      • 公平性模型评估简介
      • 适用于 Vertex AI 的数据偏差指标
      • Vertex AI 的模型偏差指标
    • 模型评估笔记本教程
  • 使用流水线编排机器学习工作流
    • 简介
    • 接口
    • 配置项目
    • 构建流水线
    • 运行流水线
    • 使用流水线模板
      • 创建、上传和使用流水线模板
      • 使用模板库中的预构建模板
    • 配置流水线
      • 配置执行缓存
      • 配置失败政策
      • 为流水线任务配置重试
      • 为流水线步骤指定机器类型
      • 使用 Vertex AI Pipelines 请求 Google Cloud 机器资源
      • 配置 Private Service Connect 接口
      • 使用 Secret Manager 配置密文
      • 配置在永久性资源上运行的流水线
    • 安排和触发流水线运行
      • 使用调度器 API 安排流水线运行
      • 触发使用 Pub/Sub 的流水线运行
    • 监控流水线执行情况
      • 查看流水线指标
      • 查看流水线作业日志
      • 将日志路由到 Cloud Pub/Sub 接收器
      • 配置电子邮件通知
    • 直观呈现结果
      • 直观呈现和分析流水线结果
      • 跟踪流水线工件的沿袭
      • 输出 HTML 和 Markdown
    • Vertex AI Pipelines 中的资源加标签功能
    • 了解流水线运行作业的费用
    • 从 Kubeflow 流水线迁移到 Vertex AI Pipelines
    • 使用自定义约束条件
    • Google Cloud 流水线组件
      • 快速入门
      • Google Cloud 流水线组件简介
      • Google Cloud 流水线组件列表
      • 使用 Google Cloud 流水线组件
      • 构建您自己的流水线组件
    • Vertex AI Pipelines 教程
      • Jupyter 笔记本
  • 跟踪和分析机器学习元数据
    • Vertex ML Metadata 简介
    • 数据模型和资源
    • 配置项目的元数据存储区
    • 使用 Vertex ML Metadata
      • 跟踪 Vertex ML 元数据
      • 分析 Vertex ML Metadata
      • 管理 Vertex ML Metadata
      • 系统架构
      • 创建和使用自定义架构
      • 将自定义约束条件与元数据存储区搭配使用
    • Vertex ML Metadata 笔记本教程
  • 了解模型行为
    • Explainable AI 简介
    • 为自定义训练配置基于示例的说明
    • 为自定义训练配置基于特征的说明
      • 配置说明
      • 配置可视化设置
      • 改进说明
    • 为 AutoML 图片分类配置基于特征的说明
      • 配置可视化设置
      • 改进说明
    • 将 TensorFlow 用于说明
    • 获取说明
    • Explainable AI 的限制
    • Explainable AI 笔记本教程
  • 监控模型质量
    • 模型监控简介
    • Model Monitoring v2
      • 设置模型监控
      • 运行监控作业
      • 管理模型监控
    • Model Monitoring v1
      • 向模型监控提供架构
      • 监控特征偏差和偏移
      • 监控特征归因偏差和偏移
      • 用于批量预测的 Model Monitoring
  • 跟踪实验
    • Vertex AI Experiments 简介
    • 为 Vertex AI Experiments 设置
    • 创建实验
    • 创建和管理实验运行作业
    • 日志数据
      • 将数据自动记录到实验运行作业中
      • 手动将数据记录到实验运行作业中
    • 将模型记录到实验运行作业中
    • 跟踪执行和工件
    • 将流水线运行作业添加到实验
    • 使用实验跟踪运行训练作业
    • 比较和分析运行作业
    • 使用 Vertex AI TensorBoard
      • Vertex AI TensorBoard 简介
      • 设置 Vertex AI TensorBoard
      • 配置训练脚本
      • 将 Vertex AI TensorBoard 与自定义训练搭配使用
      • 将 Vertex AI TensorBoard 与 Vertex AI Pipelines 搭配使用
      • 手动记录 TensorBoard 数据
      • 上传现有日志
      • 查看 Vertex AI TensorBoard
    • 笔记本教程
      • Vertex AI Experiments 使用入门
      • 比较流水线运行
      • 模型训练
      • 比较模型
      • 自动日志记录
      • 自定义训练自动日志记录
      • 跟踪自定义训练的参数和指标
      • 删除过时的 Vertex AI TensorBoard 实验
      • 使用自定义容器进行 Vertex AI TensorBoard 自定义训练。
      • 使用预构建容器进行 Vertex AI TensorBoard 自定义训练。
      • 使用 HParams 信息中心进行 Vertex AI TensorBoard 超参数调节。
      • 使用 Cloud Profiler 分析模型训练性能
      • 使用 Cloud Profiler 在使用预构建容器的自定义训练中分析模型训练性能:笔记本
      • 将 Vertex AI TensorBoard 与 Vertex AI Pipelines 集成使用。
  • 管理
  • 访问权限控制
    • 使用 IAM 进行访问权限控制
    • IAM 权限
    • 为团队设置项目
    • 控制对 Vertex AI 端点的访问权限
    • 使用自定义服务账号
    • 使用客户管理的加密密钥
    • Access Transparency
  • 监控 Vertex AI 资源
    • Cloud Monitoring 指标
    • 审核日志记录信息
  • 网络
    • 网络访问权限概览
    • 访问 Vertex AI API
    • 通过专用服务访问通道访问 Vertex AI 服务
    • 通过 PSC 端点访问 Vertex AI 服务
    • 通过 PSC 接口访问 Vertex AI 服务
    • 设置 VPC 网络对等互连
    • 设置与其他网络的连接
    • 设置 Private Service Connect 接口
    • 教程:从本地私密地访问训练流水线
    • 教程:从本地私下访问 Vector Search 索引
    • 教程:从本地访问生成式 AI API
    • 教程:从本地私密地访问批量预测
    • 教程:在 VPC 网络中创建 Vertex AI Workbench 实例
  • 安全
    • VPC Service Controls
    • 允许公共端点从边界外访问受保护的资源
    • 允许多云从边界外访问受保护的资源
    • 允许从边界内访问受保护的资源
  • 为资源命名
  • 示例和教程
  • 笔记本教程
  • 代码示例
    • 所有 Vertex AI 代码示例
    • 所有产品的代码示例
  • AI 和机器学习
  • 应用开发
  • 应用托管
  • 计算
  • 数据分析和流水线
  • 数据库
  • 分布式云、混合云和多云
  • 生成式 AI
  • 行业解决方案
  • 网络
  • 可观测性和监控
  • 安全
  • Storage
  • 访问权限和资源管理
  • 费用和用量管理
  • Google Cloud SDK、语言、框架和工具
  • 基础架构即代码
  • 迁移
  • Google Cloud 首页
  • 免费试用和免费层级
  • 架构中心
  • 博客
  • 联系销售团队
  • Google Cloud 开发者中心
  • Google 开发者中心
  • Google Cloud Marketplace
  • Google Cloud Marketplace 文档
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud 支持团队
  • Google Cloud Tech YouTube 频道
  • Home
  • 文档
  • Vertex AI
  • Documentation

使用 Vertex AI SDK
使用集合让一切井井有条 根据您的偏好保存内容并对其进行分类。

借助 Vertex AI SDK,您可以使用 Google 的生成式 AI 模型和功能来构建 AI 赋能的应用。

Vertex AI SDK 有 Python、Go、Java 和 Node.js 版。如需了解每个 SDK,请参阅以下内容:

  • Python 版 Vertex AI SDK
  • Vertex AI Node.js SDK
  • Vertex AI Java SDK
  • Vertex AI Go SDK

如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。

最后更新时间 (UTC):2025-06-09。

  • 为什么选择 Google

    • 选择 Google Cloud
    • 信任与安全
    • 现代基础架构云
    • 多云
    • 全球基础架构
    • 客户和案例研究
    • 分析师报告
    • 白皮书
  • 产品和价格

    • 查看所有产品
    • 查看所有解决方案
    • Google Cloud 创业公司计划
    • Google Cloud Marketplace
    • Google Cloud 价格
    • 与销售人员联系
  • 支持

    • Google Cloud 社区
    • 支持
    • 版本说明
    • 系统状态
  • 资源

    • GitHub
    • Google Cloud 使用入门
    • Google Cloud 文档
    • 代码示例
    • 云架构中心
    • 培训和认证
    • 开发者中心
  • 互动

    • 博客
    • 活动
    • X (Twitter)
    • Google Cloud 在 YouTube 上的频道
    • YouTube 上的 Google Cloud Tech
    • 成为合作伙伴
    • Google Cloud Affiliate Program
    • 媒体资讯角
  • 关于 Google
  • 隐私权政策
  • 网站条款
  • Google Cloud 条款
  • Manage cookies
  • 环境行动的第三个十年:加入我们
  • 订阅 Google Cloud 简报 订阅
  • English
  • Deutsch
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어