我的 couchDB 中有一个约 10k 条目(约 30Mo,无附件)数据库。
使用 Pouchdb 浏览器端,从沙发复制时,确实需要一段时间才能完成......
令我惊讶的是我的沙发在此期间收到的请求数量(数千!,我猜和文件一样多)——这正常吗?
有没有办法“批量”这些请求并普遍加速复制过程?
谢谢。
我假设你正在使用PouchDB.replicate
功能
在这种情况下,请尝试修改batch_size
option:
PouchDB.replicate('mydb', 'http://localhost:5984/mydb', {batch_size: large_val})
where large_val
高于默认值100
。该值越高,复制速度越快,但会使用更多内存,因此请小心。
See the API参考 http://pouchdb.com/api.html#replication
编辑:另请注意该选项batches_limit
默认为10
。这是任何时候可以并行运行的请求数,因此内存中的文档数等于batch_size * batches_limit
.
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)