根据谷歌BigQuery Doc它说 .
为帮助确保数据一致性,您可以为每个插入的行提供insertId . BigQuery会记住此ID至少一分钟 . 如果您尝试在该时间段内流式传输相同的行集并且设置了insertId属性,则BigQuery会使用insertId属性在尽力而为的基础上对数据进行重复数据删除 .
尝试使用Ruby client实现相同的 . 我似乎找不到在流请求中设置 insertID 的方法(引用附件here) .
根据谷歌BigQuery Doc它说 .
为帮助确保数据一致性,您可以为每个插入的行提供insertId . BigQuery会记住此ID至少一分钟 . 如果您尝试在该时间段内流式传输相同的行集并且设置了insertId属性,则BigQuery会使用insertId属性在尽力而为的基础上对数据进行重复数据删除 .
尝试使用Ruby client实现相同的 . 我似乎找不到在流请求中设置 insertID 的方法(引用附件here) .
1 回答
您可以在以下位置找到insert_id:
Class: Google::Apis::BigqueryV2::InsertAllTableDataRequest::Row
如果你看一下
Row
定义那就是in the source:您还可以在RubyInfo找到更多文档