-1
A
回答
0
每个分割20亿个文档的数量是有限的,这是hard Lucene limit。
实际值是Integer.MAX_VALUE - 128
这就是每个分片的2147483519
文件。
虽然询问有关文件数量可能是一个现实问题,但查看最大数量的索引是错误的问题。可能存在JVM限制,假设某种数组或ArrayList包含这些索引(或索引映射 - 集群状态),那么限制将是数组的大小或ArrayList/HashSet/Map的大小等。
在达到理论极限之前,您的群集可能已经死亡,甚至无法启动。每个分片正在使用资源,即使只有一个主分片,集群状态也会很大。正确的问题是询问集群的性能问题,而不是考虑集群中索引的最大数量。
相关问题
- 1. MySQL资源限制
- 2. Bintray资源限制
- 3. 限制资源行动
- 4. 限制资源路线
- 5. 临时表资源限制
- 6. Windows上的资源限制?
- 7. 语言限制资源.resx
- 8. docker-compose v3限制资源
- 9. kineticjs和iOS资源限制
- 10. 在Moodle中限制资源
- 11. 使用ACL限制CakePHP中资源ID对资源的访问
- 12. 如何限制apache2的资源?
- 13. 如何使嵌套资源受限制
- 14. 解析服务器资源限制
- 15. 如何限制AWS资源消耗?
- 16. IBM DB2 “已达到(AGENT_STACK_SZ)资源限制”
- 17. 限制使用FHIR中的资源
- 18. Woocommerce API限制和尤斯资源少
- 19. 泊坞窗机资源限制
- 20. 如何限制CPU资源/ Shockwave Flash
- 21. 限制WCF服务资源的使用
- 22. JAX-RS和资源所有权限制
- 23. kubernetes /了解CPU资源限制
- 24. 限制对RESTful资源的访问
- 25. Istio限制访问Google云资源
- 26. 限制泊坞窗守护CPU资源
- 27. Qt是否有资源系统限制?
- 28. Android资源数量有哪些限制?
- 29. bigquery资源受限制,因订单
- 30. 在wsgi中限制系统资源