ご確認ありがとうございます。
分母の数字は同じままですのでDEBUGログにして内容を確認してみました。
IndexUpdaterの処理が進んでいる箇所と比較すると
Getting documents in IndexUpdater queue.
でhitsの項目に何も設定されていないようですが、これが原因でしょうか?
もしそうであれば、どのようなことが考えられるのでしょうか?
実際のログ内容は以下となります。
2025-12-23 16:29:58,667 [IndexUpdater] DEBUG Getting documents in IndexUpdater queue.
2025-12-23 16:29:58,667 [eshttp] DEBUG >>> POST http://localhost:9200/fess_crawler.data/_search?typed_keys=true&batched_reduce_size=512&max_concurrent_shard_requests=5&ccs_minimize_roundtrips=true
2025-12-23 16:29:58,667 [eshttp] DEBUG >>> Content-Type=application/json
2025-12-23 16:29:58,667 [eshttp] DEBUG >>> {“from”:0,“size”:10,“query”:{“bool”:{“filter”:[{“terms”:{“sessionId”:[“20251223122029-1”],“boost”:1.0}},{“term”:{“status”:{“value”:0,“boost”:1.0}}}],“adjust_pure_negative”:true,“boost”:1.0}},“_source”:{“includes”:[“parentUrl”,“method”,“mimeType”,“sessionId”,“url”,“executionTime”,“createTime”,“contentLength”,“lastModified”,“ruleId”,“httpStatusCode”,“status”],“excludes”:},“sort”:[{“createTime”:{“order”:“asc”}}]}
2025-12-23 16:29:58,971 [eshttp] DEBUG <<< {“took”:302,“timed_out”:false,“_shards”:{“total”:10,“successful”:9,“skipped”:0,“failed”:1,“failures”:[{“shard”:8,“index”:“fess_crawler.data”,“node”:“8Vj0suAKQe-UL0pUrO6dAw”,“reason”:{“type”:“parse_exception”,“reason”:“Failed to parse content to map”,“caused_by”:{“type”:“stream_constraints_exception”,“reason”:“String value length (50003968) exceeds the maximum allowed (50000000, from StreamReadConstraints.getMaxStringLength())”}}}]},“hits”:{“total”:{“value”:1432,“relation”:“eq”},“max_score”:null,“hits”:}}
2025-12-23 16:29:58,971 [eshttp] DEBUG Response in Memory
2025-12-23 16:29:58,972 [IndexUpdater] INFO Processing 0/1432 docs (Doc:{access 305ms, cleanup 102ms}, Mem:{used 1.1GB, heap 3.831GB, max 10.24GB})