查看数据流

在本页中,您将了解如何获取有关数据流的信息。

如需查看数据流的概要信息和详细信息,请执行以下操作:

  1. 前往 Google Cloud 控制台中的数据流页面。

    转到“数据流”页面

  2. 点击要查看其详细信息的数据流。此信息显示在数据流详情页面上。

查看概要信息

有关数据流的概要信息包括:

  • 数据流的名称和状态。
  • 数据流用于将数据从来源数据库转移到目标位置的来源和目标连接配置文件。
  • 连接配置文件的配置文件类型。

查看详细信息

除了查看有关数据流的概要信息之外,您还可以点击数据流来查看其他信息,包括:

  • 存储数据流的区域。与所有资源一样,数据流保存在区域中。数据流只能使用同一区域中的连接配置文件和专用连接配置。
  • 数据流的创建时间、上次更新时间或恢复时间。
  • 添加到数据流的任何标签。这些标签用于整理数据流。
  • 为数据流选择的 CDC 方法,具体取决于源数据库。
  • Datastream 在处理数据流时应包含的来源数据库中的表和架构。
  • Datastream 在处理数据流时应排除的源数据库中的表和架构。
  • 对于除 PostgreSQL 以外的所有来源,为数据流设置的 CDC 方法。
  • 对于 Oracle 来源:日志文件访问方法。
  • 为数据流启用还是停用历史回填
    • 来源数据库中有多少架构和表从回填中排除(如果启用)。
  • 对于 BigQuery 目标位置:

    • 目标数据集是动态数据集还是默认数据集。
    • 流的写入模式是否设置为 MergeAppend-only
    • 如果您选择了合并模式,则为 Datastream 创建的新 BigQuery 表应用的过时限制配置。

    此外,对于 BigLake Iceberg 表目标:

    • 您用于数据流的 BigQuery 连接的标识符。
    • 用于存储数据的 Cloud Storage 存储桶的统一资源标识符 (URI)。
  • 对于 Cloud Storage 目的地:

    • 数据流将架构、表和数据从来源数据库转移到的目标位置。
    • 写入目标位置的文件的格式。Datastream 支持两种输出格式:Avro 和 JSON。
  • 数据是使用由 Google 管理的密钥加密还是由您(由客户管理)管理的密钥加密。

  • 指向客户管理的加密密钥的链接和路径(如果您正在管理加密)。

  • 用于为直播创建提醒政策的链接。

  • 进行中、待处理或失败的回填数的状态。

  • Datastream 在过去 7 天内处理并加载到目标位置的事件数。

  • Datastream 在过去 7 天内无法处理的事件数。

    • 数据新鲜度图表。此图显示了驻留在来源中的数据与通过数据流传输到目标位置的数据之间的时间间隔。该时间间隔为 Datastream 自上次检查到来源中的新数据以来所经过的时间。

    如需详细了解此图表,请参阅监控数据流

后续步骤