CsvListDataStoreを利用したファイルサーバのクロールについて

環境
Fess 13.6.1
ElasticSearch 7.6.1


上記の記事を参考にCsvListDataStoreを利用してファイルサーバのクロールを行おうとしているのですが、
下記のエラーによりクロールすることができません。
ファイルシステムクロールでは同じファイルサーバを対象にクロールできています。

jcifs.smb.SmbException: Failed to connect: 0.0.0.0<00>/<ファイルサーバIP>
at jcifs.smb.SmbTransportImpl.ensureConnected(SmbTransportImpl.java:689) ~[jcifs-2.1.15.jar:?]
at jcifs.smb.SmbTransportPoolImpl.getSmbTransport(SmbTransportPoolImpl.java:217) ~[jcifs-2.1.15.jar:?]
at jcifs.smb.SmbTransportPoolImpl.getSmbTransport(SmbTransportPoolImpl.java:48) ~[jcifs-2.1.15.jar:?]
at jcifs.smb.SmbTreeConnection.connectHost(SmbTreeConnection.java:565) [jcifs-2.1.15.jar:?]
at jcifs.smb.SmbTreeConnection.connectHost(SmbTreeConnection.java:489) [jcifs-2.1.15.jar:?]
at jcifs.smb.SmbTreeConnection.connect(SmbTreeConnection.java:465) [jcifs-2.1.15.jar:?]
at jcifs.smb.SmbTreeConnection.connectWrapException(SmbTreeConnection.java:426) [jcifs-2.1.15.jar:?]
at jcifs.smb.SmbFile.ensureTreeConnected(SmbFile.java:572) [jcifs-2.1.15.jar:?]
at jcifs.smb.SmbFile.exists(SmbFile.java:866) [jcifs-2.1.15.jar:?]
at jcifs.smb.SmbFile.isFile(SmbFile.java:1095) [jcifs-2.1.15.jar:?]
at org.codelibs.fess.crawler.client.smb.SmbClient.getResponseData(SmbClient.java:205) [fess-crawler-3.6.1.jar:?]
at org.codelibs.fess.crawler.client.smb.SmbClient.processRequest(SmbClient.java:159) [fess-crawler-3.6.1.jar:?]
at org.codelibs.fess.crawler.client.smb.SmbClient.doGet(SmbClient.java:142) [fess-crawler-3.6.1.jar:?]
at org.codelibs.fess.crawler.client.AbstractCrawlerClient.execute(AbstractCrawlerClient.java:141) [fess-crawler-3.6.1.jar:?]
at org.codelibs.fess.ds.callback.FileListIndexUpdateCallbackImpl.processRequest(FileListIndexUpdateCallbackImpl.java:135) [classes/:?]
at org.codelibs.fess.ds.callback.FileListIndexUpdateCallbackImpl.addDocument(FileListIndexUpdateCallbackImpl.java:123) [classes/:?]
at org.codelibs.fess.ds.callback.FileListIndexUpdateCallbackImpl.lambda$store$0(FileListIndexUpdateCallbackImpl.java:91) [classes/:?]
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1128) [?:?]
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:628) [?:?]
at java.lang.Thread.run(Thread.java:834) [?:?]
Caused by: jcifs.util.transport.ConnectionTimeoutException: Connection timeout
at jcifs.util.transport.Transport.connect(Transport.java:586) ~[jcifs-2.1.15.jar:?]
at jcifs.smb.SmbTransportImpl.ensureConnected(SmbTransportImpl.java:686) ~[jcifs-2.1.15.jar:?]
… 19 more

参考記事をもとにcsvファイルの記載、パラメータ、スクリプトについては下記のように設定しております

csvファイル
modify,smb://クロール対象ファイル

パラメータ
directories=/work/csv
fileEncoding=Shift_JIS

スクリプト
event_type=cell1
url=cell2

smb指定の場合他に設定する項目等ありましたらご教授ください。

そのファイルサーバーには認証なしでアクセスできるのでしょうか?

ADでの認証が必要となります。
パラメータ、スクリプト等に指定が必要なのでしょうか?

パラメータ欄に認証情報を追加する必要があります。
環境に合わせて値を変更してみてください。
crawler.file.auth=example(認証の名前を入力します。任意です。ここでは例として「example」とします。)
crawler.file.auth.example.scheme=SAMBA
crawler.file.auth.example.username=username
crawler.file.auth.example.password=password

ご教授いただきました内容で試行してみたところ、無事にクロールできました。
ありがとうございました。