2017-05-23 127 views
0

我有一个python实现流数据大查询,它类似于文档的例子,在每个任务中我有一个“加载1行...“,但是当查询表格时,我每天只能得到30-35行(表格按日划分),但我得到的平均数据流量为25k。当看到“get”api调用时,它显示出像800行蚂蚁缓冲区,但它花了4天这样,我不能在4天前看到我的数据在我的表中。谷歌大查询 - 冲洗缓冲区数据(缓冲区4天数据)

回答

2

当您调用tabledata.insertAll时,您是否为每一行提供重复数据删除insertId?如果您对所有插入的行重新使用相同的insertId,则会观察到与此类似的行为。

+0

嗨shollyman,我正在使用一个库来生成一个随机ID,符合RFC 4122。https://docs.python.org/2/library/uuid.html –

+0

我正在使用版本4 errors = table .insert_data(rows,row_ids = str(uuid.uuid4())) –

+0

鉴于此用法,请勿提供row_ids。也就是说,正如所写的insert_data使用行中当前行的索引来获取从uuid转换为字符串的子字符串,因此,您的insert_id可能只是单个字符或数字,而不是您所期望的每行唯一uuid。 – shollyman