我在blob存储中存储了大约260 MB的数据,这需要大约4个小时来刷新电源桌面当我将其发布到服务上并设置预定刷新时,由于达到120分钟的超时,甚至不会发生刷新 .

我想知道这个大规模更新时间背后的任何原因,可能会被告知一些有效的方法来处理这个问题 .

原因在于数据源方面(听说blob存储在刷新方面很慢)或我的查询方面(有几个切片器,过滤器和几个计算)?

除了增加功率bi的超时限制之外,还有什么方法可以解决这个问题呢?

我试过这个:让 table 变得更窄(但没有太多帮助) .

我正在进行“增量刷新”,但意识到它仅适用于高级用户(Mine的专业版) . 那么,有没有办法可以将数据集拆分成较小的集合,并且只设置过去10天的刷新(并保留历史数据)?