BigQuery支持重复数据删除以进行流插入。如何通过Apache Beam使用此功能?
https://cloud.google.com/bigquery/streaming-data-into-bigquery#dataconsistency
为了帮助确保数据一致性,可以为每个插入的行提供insertId。 BigQuery会记住此ID至少一分钟。如果您尝试在该时间段内流传输相同的行集,并且设置了insertId属性,则BigQuery将使用insertId属性来尽最大努力消除重复数据。您可能必须重试插入,因为在某些错误情况下(例如系统与BigQuery之间的网络错误或BigQuery中的内部错误),无法确定流插入的状态。如果您重试插入,请对相同的行集使用相同的insertId,以便BigQuery可以尝试对您的数据进行重复数据删除。有关更多信息,请参见对流插入进行故障排除。
我在Java文档中找不到此类功能。
https://beam.apache.org/releases/javadoc/2.9.0/org/apache/beam/sdk/io/gcp/bigquery/BigQueryIO.Write.html
他建议在this question中在TableRow中设置insertId。这样对吗?
https://developers.google.com/resources/api-libraries/documentation/bigquery/v2/java/latest/com/google/api/services/bigquery/model/TableRow.html?is-external=true
BigQuery客户端库具有此功能。
https://googleapis.github.io/google-cloud-java/google-cloud-clients/apidocs/index.html?com/google/cloud/bigquery/package-summary.html
https://github.com/googleapis/google-cloud-java/blob/master/google-cloud-clients/google-cloud-bigquery/src/main/java/com/google/cloud/bigquery/InsertAllRequest.java#L134
最佳答案
.apply(Distinct.create())
转换的Dataflow中。