クロール時にCurlExceptionが発生する

お世話になっております。
データストアクロール行う際に、一部のファイルでCurlExceptionが発生しインデックス化に失敗してしまいます。
過去のissueなどを拝見してFessのheap、Elasticsearchのheapの両方を拡張したのですが、解消することができませんでした。
また、容量の大きいファイルではありましたので、fess_config.propertiesから変更できるタイムアウト設定も調整したのですがheapの設定同様エラーを解消することができませんでした。

こちら、他に考えられる原因などありますでしょうか?

環境情報

Fess 13.13.0 (docker)
Elasticsearch 7.13.3 (docker)

以下エラー文となります。
また、以下のエラー文はデータストアクロールを使用した際のものですが、同ファイルをファイルクロールで取得した際にもFailed to access以下の同様のエラーが出ております。

org.codelibs.fess.exception.DataStoreException: org.codelibs.curl.CurlException: Failed to access to http://es01:9200/_bulk?timeout=1m
    at org.codelibs.fess.ds.csv.CsvListDataStore.storeData(CsvListDataStore.java:76) ~[fess-ds-csv-13.13.0.jar:?]
    at org.codelibs.fess.ds.AbstractDataStore.store(AbstractDataStore.java:121) ~[classes/:?]
    at org.codelibs.fess.helper.DataIndexHelper$DataCrawlingThread.process(DataIndexHelper.java:216) [classes/:?]
    at org.codelibs.fess.helper.DataIndexHelper$DataCrawlingThread.run(DataIndexHelper.java:202) [classes/:?]

Caused by: org.codelibs.curl.CurlException: Failed to access to http://es01:9200/_bulk?timeout=1m
    at org.codelibs.curl.CurlRequest.lambda$connect$3(CurlRequest.java:201) ~[curl4j-1.2.4.jar:?]
    at java.util.concurrent.ForkJoinTask$RunnableExecuteAction.exec(ForkJoinTask.java:1426) ~[?:?]
    at java.util.concurrent.ForkJoinTask.doExec(ForkJoinTask.java:290) ~[?:?]
    at java.util.concurrent.ForkJoinPool$WorkQueue.topLevelExec(ForkJoinPool.java:1020) ~[?:?]
    at java.util.concurrent.ForkJoinPool.scan(ForkJoinPool.java:1656) ~[?:?]
    at java.util.concurrent.ForkJoinPool.runWorker(ForkJoinPool.java:1594) ~[?:?]
    at java.util.concurrent.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:183) ~[?:?]

Caused by: org.codelibs.curl.CurlException: Failed to write a response.
    at org.codelibs.curl.CurlRequest$RequestProcessor.writeContent(CurlRequest.java:326) ~[curl4j-1.2.4.jar:?]
    at org.codelibs.curl.CurlRequest$RequestProcessor.accept(CurlRequest.java:274) ~[curl4j-1.2.4.jar:?]
    at org.codelibs.curl.CurlRequest.lambda$execute$4(CurlRequest.java:218) ~[curl4j-1.2.4.jar:?]
    at org.codelibs.curl.CurlRequest.lambda$connect$3(CurlRequest.java:199) ~[curl4j-1.2.4.jar:?]
    at java.util.concurrent.ForkJoinTask$RunnableExecuteAction.exec(ForkJoinTask.java:1426) ~[?:?]
    at java.util.concurrent.ForkJoinTask.doExec(ForkJoinTask.java:290) ~[?:?]
    at java.util.concurrent.ForkJoinPool$WorkQueue.topLevelExec(ForkJoinPool.java:1020) ~[?:?]
    at java.util.concurrent.ForkJoinPool.scan(ForkJoinPool.java:1656) ~[?:?]
    at java.util.concurrent.ForkJoinPool.runWorker(ForkJoinPool.java:1594) ~[?:?]
    at java.util.concurrent.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:183) ~[?:?]

Caused by: java.io.IOException: Stream closed
    at java.io.BufferedInputStream.getInIfOpen(BufferedInputStream.java:165) ~[?:?]
    at java.io.BufferedInputStream.fill(BufferedInputStream.java:252) ~[?:?]
    at java.io.BufferedInputStream.read1(BufferedInputStream.java:292) ~[?:?]
    at java.io.BufferedInputStream.read(BufferedInputStream.java:351) ~[?:?]
    at java.io.FilterInputStream.read(FilterInputStream.java:107) ~[?:?]
    at org.codelibs.curl.CurlRequest$RequestProcessor.writeContent(CurlRequest.java:301) ~[curl4j-1.2.4.jar:?]
    at org.codelibs.curl.CurlRequest$RequestProcessor.accept(CurlRequest.java:274) ~[curl4j-1.2.4.jar:?]
    at org.codelibs.curl.CurlRequest.lambda$execute$4(CurlRequest.java:218) ~[curl4j-1.2.4.jar:?]
    at org.codelibs.curl.CurlRequest.lambda$connect$3(CurlRequest.java:199) ~[curl4j-1.2.4.jar:?]
    at java.util.concurrent.ForkJoinTask$RunnableExecuteAction.exec(ForkJoinTask.java:1426) ~[?:?]
    at java.util.concurrent.ForkJoinTask.doExec(ForkJoinTask.java:290) ~[?:?]
    at java.util.concurrent.ForkJoinPool$WorkQueue.topLevelExec(ForkJoinPool.java:1020) ~[?:?]
    at java.util.concurrent.ForkJoinPool.scan(ForkJoinPool.java:1656) ~[?:?]
    at java.util.concurrent.ForkJoinPool.runWorker(ForkJoinPool.java:1594) ~[?:?]
    at java.util.concurrent.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:183) ~[?:?]

こちらの件ですがElasticsearchのHTTPリクエストの上限に引っかかっていたようです。
elasticsearch.ymlに http.max_content_length: 1g を追記することで解消することが確認できました。