1回もクローラーを走らせていない[ウェブ

(from osdn.net/users/wasabi1975)

2017-02-09 15:46:16,443 [http-nio-8080-exec-21] ERROR {“error”:{“root_cause”:[{“type”:“index_not_found_exception”,“reason”:“no such index”,“resource.type”:“index_or_alias”,“resource.id”:“fess”,“index”:“fess”}],“type”:“index_not_found_exception”,“reason”:“no such index”,“resource.type”:“index_or_alias”,“resource.id”:“fess”,“index”:“fess”},“status”:404}
2017-02-09 16:03:51,161 [http-nio-8080-exec-21] ERROR {“error”:{“root_cause”:[{“type”:“index_closed_exception”,“reason”:“closed”,“index”:“fess.20170206”}],“type”:“index_closed_exception”,“reason”:“closed”,“index”:“fess.20170206”},“status”:403}

(from osdn.net/users/wasabi1975)
すいません、途中で投稿してしまいました。

1回もクローラーを走らせていない状態の、ウェブクロールIDを、スケジューラーのジョブの.execute(executor, [“hoge”, “fuga”] に追加すると、以下のエラーが発生します。

エラーを発生させるための作業としては、

1.まっさらなfessを用意する
2.Default Crawlerを無効
3.任意のウェブクロール設定を2つ作成
4.片方のウェブクロール設定(hoge)から「新しいジョブの作成」ボタンでジョブ作成
5.ジョブを実行する前に、2つ目のウェブクロール設定(fuga)のIDをexecuteの部分に追加
6.ジョブを実行
7.2つ目のindexが存在しないためエラー

のようです。

2017-02-09 15:46:16,443 [http-nio-8080-exec-21] ERROR {“error”:{“root_cause”:[{“type”:“index_not_found_exception”,“reason”:“no such index”,“resource.type”:“index_or_alias”,“resource.id”:“fess”,“index”:“fess”}],“type”:“index_not_found_exception”,“reason”:“no such index”,“resource.type”:“index_or_alias”,“resource.id”:“fess”,“index”:“fess”},“status”:404}
2017-02-09 16:03:51,161 [http-nio-8080-exec-21] ERROR {“error”:{“root_cause”:[{“type”:“index_closed_exception”,“reason”:“closed”,“index”:“fess.20170206”}],“type”:“index_closed_exception”,“reason”:“closed”,“index”:“fess.20170206”},“status”:403}

(from osdn.net/users/shinsuke)

4.片方のウェブクロール設定(hoge)から「新しいジョブの作成」ボタンでジョブ作成

上記のジョブの時点でクロールできるのでしょうか?
IDが複数になったとしても大した差がないので、
別な問題がログ等が出ているようにも思います。

(from osdn.net/users/wasabi1975)
分かりにくくて申し訳ございません。

DefaultCrawlerを含め、1回もクローラーを走らせておらず、
indexが完全にまっさらな状態で、
ジョブにIDを複数設定すると、indexの更新が止まってしまうようです。

hogeとfugaで、別々に「新しいジョブの作成」で2つのジョブを作り、
2つのジョブを一度走らせて、indexに登録されてからだと、
executorに複数のIDを登録しても更新が正常に行われるようです。

(from osdn.net/users/shinsuke)
return container.getComponent(“crawlJob”).logLevel(“info”).sessionId(“AVonA3D46yprmY4QDPKT”).execute(executor, [“AVonA3D46yprmY4QDPKT”, “AVonA_pA6yprmY4QDPKU”] as String[],[] as String[],[] as String[], “”);
という感じで再現しないようなので、別な理由があるように思います。
別な問題がログ等が出ているようにも思うので
スタックトレースを含めて確認するのが良いと思います。

(from osdn.net/users/wasabi1975)
ありがとうございます。

もう少し深彫りしてみます。

よろしくお願いいたします。