由网友(加冕为王i)分享简介:我的CouchDB中有大约10k个条目(约30mo,无附件)数据库。使用Pouchdb浏览器端,从沙发上复制时,确实需要一段时间才能完成...让我惊讶的是,在这个过程中,我的沙发收到了这么多请求(数千!我猜和文件一样多)--这正常吗?是否有办法"批量"这些请求并通常加快复制过程?谢谢。推荐答案我假定您使用的是Pouc...![使用PouchDB构建离线的第一个应用程序](https://p.xsw88.cn/allimgs/daicuo/20230903/1839.png)
我的CouchDB中有大约10k个条目(约30mo,无附件)数据库。
使用Pouchdb浏览器端,从沙发上复制时,确实需要一段时间才能完成...
![使用PouchDB构建离线的第一个应用程序](https://p.xsw88.cn/allimgs/daicuo/20230903/1839.png)
让我惊讶的是,在这个过程中,我的沙发收到了这么多请求(数千!我猜和文件一样多)--这正常吗?
是否有办法"批量"这些请求并通常加快复制过程?
谢谢。
推荐答案
我假定您使用的是PouchDB.replicate
函数
在这种情况下,请尝试修改batch_size
选项:
PouchDB.replicate('mydb', 'http://localhost:5984/mydb', {batch_size: large_val})
其中large_val
高于默认值100
。该值越大,复制进行得越快,但它将使用更多内存,因此要小心。
请参阅API reference
编辑:还要注意选项batches_limit
,它默认为10
。这是任何时候可以并行运行的请求数,因此内存中的文档数等于batch_size * batches_limit
。
相关推荐
最新文章