ElasticSearchのCluster機能を試す
ElasticSearchとは、の修正
昨日僕はElasticSearchを「検索エンジン」と書きましたが、正確に言うと「全文検索エンジンであるLuceneを使用した、全文検索システム」です。
Luceneとは
Apache Software Foundationで開発されている全文検索エンジンで、Javaのクロスライブラリとして提供されています。
Solrとは
Apache Software Foundationで、Luceneのサブプロジェクトとして開発されている、全文検索システムです。Luceneを検索エンジンとして使用しており、もちろんJavaで書かれています。
ElasticSearchとSolrの比較
ものすごくざっくり言っちゃうと、ElasticSearchはRESTfulで全てがJSONです、ということ...なのかな。
ElasticSearchにあるclustering機能はSolr4で採用されたSolrCloud機能でカバーされたようだし、細かいことは色々あるんだろうけど、簡易的な使い方に絞って言えばRESTfulなのはとても便利だと思います。
本題
今回はElasticSearchのCluster機能を試してみたいと思います。
Cluster設定
/etc/elasticsearch/elasticsearch.ymlで細かい設定が出来ますが、このファイルの冒頭には以下のように記載されています。
まず、ElasticSearchをセットアップした2台のEC2を用意し、セキュリティグループで9200/tcp、9300/tcpのInboundをオープンします。
初期状態のノードAのクラスタの状態は以下の通りです。
同一サブネットで、同一クラスタ名("elasticsearch")なのに、それぞれが別のクラスタのマスタになっています。何故でしょう?
そこでdiscoveryの挙動について調べてみます。elasticsearch.ymlに以下の記載がありました。
しかしAmazon Virtual Private Cloud FAQに
昨日僕はElasticSearchを「検索エンジン」と書きましたが、正確に言うと「全文検索エンジンであるLuceneを使用した、全文検索システム」です。
Luceneとは
Apache Software Foundationで開発されている全文検索エンジンで、Javaのクロスライブラリとして提供されています。
Solrとは
Apache Software Foundationで、Luceneのサブプロジェクトとして開発されている、全文検索システムです。Luceneを検索エンジンとして使用しており、もちろんJavaで書かれています。
ElasticSearchとSolrの比較
ものすごくざっくり言っちゃうと、ElasticSearchはRESTfulで全てがJSONです、ということ...なのかな。
ElasticSearchにあるclustering機能はSolr4で採用されたSolrCloud機能でカバーされたようだし、細かいことは色々あるんだろうけど、簡易的な使い方に絞って言えばRESTfulなのはとても便利だと思います。
本題
今回はElasticSearchのCluster機能を試してみたいと思います。
Cluster設定
/etc/elasticsearch/elasticsearch.ymlで細かい設定が出来ますが、このファイルの冒頭には以下のように記載されています。
Most of the time, these defaults are just fine for running a production cluster.ということで細かい設定せずにこのままいっちゃいます。
まず、ElasticSearchをセットアップした2台のEC2を用意し、セキュリティグループで9200/tcp、9300/tcpのInboundをオープンします。
初期状態のノードAのクラスタの状態は以下の通りです。
$ curl localhost:9200/_cluster/nodes/_local
{"ok":true,"cluster_name":"elasticsearch","nodes":{"-saA5swFSpWxPlnGV9kGcQ":{"name":"Shocker","transport_address":"inet[/172.31.2.129:9300]","hostname":"ip-172-31-2-129","version":"0.90.5","http_address":"inet[/172.31.2.129:9200]"}}}
$ sudo cat /var/log/elasticsearch.log同じく初期状態のノードBのクラスタの状態は以下の通りです。
[2013-10-29 00:53:20,943][INFO ][node ] [Shocker] version[0.90.5], pid[4321], build[c8714e8/2013-09-17T13:09:46Z]
[2013-10-29 00:53:20,944][INFO ][node ] [Shocker] initializing ...
[2013-10-29 00:53:20,952][INFO ][plugins ] [Shocker] loaded [], sites []
[2013-10-29 00:53:24,308][INFO ][node ] [Shocker] initialized
[2013-10-29 00:53:24,309][INFO ][node ] [Shocker] starting ...
[2013-10-29 00:53:24,520][INFO ][transport ] [Shocker] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/172.31.2.129:9300]}
[2013-10-29 00:53:27,564][INFO ][cluster.service ] [Shocker] new_master [Shocker][-saA5swFSpWxPlnGV9kGcQ][inet[/172.31.2.129:9300]], reason: zen-disco-join (elected_as_master)
[2013-10-29 00:53:27,614][INFO ][discovery ] [Shocker] elasticsearch/-saA5swFSpWxPlnGV9kGcQ
[2013-10-29 00:53:27,642][INFO ][http ] [Shocker] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/172.31.2.129:9200]}
[2013-10-29 00:53:27,642][INFO ][node ] [Shocker] started
[2013-10-29 00:53:27,668][INFO ][gateway ] [Shocker] recovered [0] indices into cluster_state
$ curl localhost:9200/_cluster/nodes/_local
{"ok":true,"cluster_name":"elasticsearch","nodes":{"sHxbUNgxRieV2z9Pyt9ZVA":{"name":"Mister Machine","transport_address":"inet[/172.31.8.224:9300]","hostname":"ip-172-31-8-224","version":"0.90.5","http_address":"inet[/172.31.8.224:9200]"}}}
$ sudo cat /var/log/elasticsearch.log
[2013-10-29 02:20:24,468][INFO ][node ] [Mister Machine] version[0.90.5], pid[1346], build[c8714e8/2013-09-17T13:09:46Z]
[2013-10-29 02:20:24,469][INFO ][node ] [Mister Machine] initializing ...
[2013-10-29 02:20:24,476][INFO ][plugins ] [Mister Machine] loaded [], sites []
[2013-10-29 02:20:28,881][INFO ][node ] [Mister Machine] initialized
[2013-10-29 02:20:28,882][INFO ][node ] [Mister Machine] starting ...
[2013-10-29 02:20:29,161][INFO ][transport ] [Mister Machine] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/172.31.8.224:9300]}
[2013-10-29 02:20:32,240][INFO ][cluster.service ] [Mister Machine] new_master [Mister Machine][sHxbUNgxRieV2z9Pyt9ZVA][inet[/172.31.8.224:9300]], reason: zen-disco-join (elected_as_master)
[2013-10-29 02:20:32,292][INFO ][discovery ] [Mister Machine] elasticsearch/sHxbUNgxRieV2z9Pyt9ZVA
[2013-10-29 02:20:32,321][INFO ][http ] [Mister Machine] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/172.31.8.224:9200]}
[2013-10-29 02:20:32,322][INFO ][node ] [Mister Machine] started
[2013-10-29 02:20:32,356][INFO ][gateway ] [Mister Machine] recovered [0] indices into cluster_state
同一サブネットで、同一クラスタ名("elasticsearch")なのに、それぞれが別のクラスタのマスタになっています。何故でしょう?
そこでdiscoveryの挙動について調べてみます。elasticsearch.ymlに以下の記載がありました。
# Discovery infrastructure ensures nodes can be found within a clusterDiscoveryはデフォルトではマルチキャストを使ってmaster nodeを検索しに行くようです。
# and master node is elected. Multicast discovery is the default.
しかしAmazon Virtual Private Cloud FAQに
Q: Amazon VPC は、マルチキャストまたはブロードキャストをサポートしますか?と記載されています...Amazon VPCではmulticast discoveryは使えません。AWS Cloud Plugin for ElasticSearchにも辿り着いたのですが、やはりVPCではうまく動作しませんでした。
いいえ。
それではunicast discoveryを使った構成で構築してみます
ノードA、ノードB共に、elasticsearch.yamlを修正し、multicast discoveryを無効化し、unicast対象のmaster nodeとなるホストを記載します。ここではノードAとノードBのIPアドレスを記載しました。
$ sudo vi /etc/elasticsearch/elasticsearch.yml
discovery.zen.ping.multicast.enabled: false
discovery.zen.ping.unicast.hosts: ["172.31.2.129","172.31.8.224"]
ではノードAでサービスを起動してみます。なお[***.log]の***の部分はcluster nameになります。
$ sudo service elasticsearch start
$ cat /var/log/elasticsearch/elasticsearch.log
[2013-10-29 05:11:24,797][INFO ][node ] [Stranger] version[0.90.5], pid[21630], build[c8714e8/2013-09-17T13:09:46Z]
[2013-10-29 05:11:24,797][INFO ][node ] [Stranger] initializing ...
[2013-10-29 05:11:24,815][INFO ][plugins ] [Stranger] loaded [cloud-aws], sites []
[2013-10-29 05:11:28,382][INFO ][node ] [Stranger] initialized
[2013-10-29 05:11:28,382][INFO ][node ] [Stranger] starting ...
[2013-10-29 05:11:28,566][INFO ][transport ] [Stranger] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/172.31.2.129:9300]}
[2013-10-29 05:11:31,615][INFO ][cluster.service ] [Stranger] new_master [Stranger][LajRpjtATZma4sBlgz96NQ][inet[/172.31.2.129:9300]], reason: zen-disco-join (elected_as_master)
[2013-10-29 05:11:31,631][INFO ][discovery ] [Stranger] elasticsearch/LajRpjtATZma4sBlgz96NQ
[2013-10-29 05:11:31,661][INFO ][http ] [Stranger] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/172.31.2.129:9200]}
[2013-10-29 05:11:31,661][INFO ][node ] [Stranger] started
[2013-10-29 05:11:32,643][INFO ][gateway ] [Stranger] recovered [1] indices into cluster_state
ノードAがmasterとして起動しました。
次にノードBのサービスを再起動します。
$ sudo service elasticsearch start
$ cat /var/log/elasticsearch/elasticsearch.log
[2013-10-29 05:11:59,093][INFO ][node ] [Smuggler I] version[0.90.5], pid[18229], build[c8714e8/2013-09-17T13:09:46Z]
[2013-10-29 05:11:59,094][INFO ][node ] [Smuggler I] initializing ...
[2013-10-29 05:11:59,111][INFO ][plugins ] [Smuggler I] loaded [cloud-aws], sites []
[2013-10-29 05:12:02,621][INFO ][node ] [Smuggler I] initialized
[2013-10-29 05:12:02,621][INFO ][node ] [Smuggler I] starting ...
[2013-10-29 05:12:02,796][INFO ][transport ] [Smuggler I] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/172.31.8.224:9300]}
[2013-10-29 05:12:05,886][INFO ][cluster.service ] [Smuggler I] detected_master [Stranger][LajRpjtATZma4sBlgz96NQ][inet[/172.31.2.129:9300]], added {[Stranger][LajRpjtATZma4sBlgz96NQ][inet[/172.31.2.129:9300]],}, reason: zen-disco-receive(from master [[Stranger][LajRpjtATZma4sBlgz96NQ][inet[/172.31.2.129:9300]]])
[2013-10-29 05:12:05,918][INFO ][discovery ] [Smuggler I] elasticsearch/S6ZtXTxAS_2c-1q9NuGOQQ
[2013-10-29 05:12:05,929][INFO ][http ] [Smuggler I] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/172.31.8.224:9200]}
[2013-10-29 05:12:05,930][INFO ][node ] [Smuggler I] started
ノードA(Stranger)をMasterとして発見しました。
ノードAのログを見ると、ノードB(Smuggler I)がクラスタに追加されたことがわかります。
[2013-10-29 05:12:05,868][INFO ][cluster.service ] [Stranger] added {[Smuggler I][S6ZtXTxAS_2c-1q9NuGOQQ][inet[/172.31.8.224:9300]],}, reason: zen-disco-receive(join from node[[Smuggler I][S6ZtXTxAS_2c-1q9NuGOQQ][inet[/172.31.8.224:9300]]])
では動作確認です
ノードAでXPUTしてデータを登録します。
ノードAでXPUTしてデータを登録します。
$ curl -XPUT http://localhost:9200/cltest/test/1 -d '
> {
> "title" : "test",
> "text" : "node A"
> }'
{"ok":true,"_index":"cltest","_type":"test","_id":"1","_version":1}
次にノードBでXGETしてデータを抽出してみます。
$ curl -XGET http://localhost:9200/cltest/test/_search -d '
> {
> "query":
> { "match":{"title":"test"}}
> }'
{"took":86,"timed_out":false,"_shards":{"total":5,"successful":5,"failed":0},"hits":{"total":1,"max_score":0.30685282,"hits":[{"_index":"cltest","_type":"test","_id":"1","_score":0.30685282, "_source" :
{
"title" : "test",
"text" : "node A"
}}]}}
ということでちゃんと分散されました。各ノードをELB配下において、master nodeを複数のAZに分散して配置しておけば、非master nodeをScale Outさせることで可用性が確保できそうです。
感想
とにかく日本語での情報が少ない...海外のWebサイトを翻訳しつつ試したので、間違いやもっと良い方法があるのかも知れません。とにかくちゃんとクラスタとして動作したのでとりあえず満足しました。
あとこのElasticSearchが勝手に付けるノード名は一体何なんだろう。スターウォーズかなぁ。
あとこのElasticSearchが勝手に付けるノード名は一体何なんだろう。スターウォーズかなぁ。
Elasticsearch Server: Create a Fast, Scalable, and Flexible Search Solution With the Emerging Open Source Search Server, Elasticsearch Rafal Kuc,Marek Rogozinski Packt Publishing 売り上げランキング : 71370 Amazonで詳しく見る by AZlink |