2013/10/30

ElasticSearch + fluentdでログ分散管理

前々回前回と、ElasticSearchについて勉強をしました。繰り返しになりますが、ElasticSearchの特徴は「RESTfulで全てがJSON」です。そうするとJSONデータであれば何でも食わせて全文検索が出来るわけですね。またCluster機能によって保持データを分散させることで可用性も確保出来ます。

高い可用性が必要で、全文検索したいもの...ログだ!

そこでfluentdです
fluentdはイベントログ収集のためのオープンソースソフトウェアで、インプットされたイベントログをJSONに変換してアウトプットします。「Log everything in JSON」です。開発元であるTreasure Data, Inc.の古橋氏のBlogに詳細があります。



構成
可用性確保ということで、このような構成にしてみました。
なお、fluentd自体にHA設定があり、アウトプット先のstandby serverを設定することが可能ですが、今回はLogサーバの増減にも対応できるように、Internal ELBをかましてみました。

やってみる
準備
Web1、Web2ではApacheをインストールしておきます。
$ sudo yum -y install httpd
Log1、Log2ではElasticSearchをインストールし、Clusterの設定をしておきます。
なお、ElasticSearchのrpmファイルは
$ wget https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-0.90.5.noarch.rpm
で取得しますが、Log1とLog2はPrivate Subnetに所属しているためwgetで外部接続は出来ません。NATインスタンスを立てるなりWebサーバでwgetしてからscpでコピーするなりの手段が必要です。

ElasticSearchのインストールとCluster設定は以下の通り。
$ sudo rpm -ivh ./elasticsearch-0.90.5.noarch.rpm
$ sudo vi /etc/elasticsearch/elasticsearch.yml
discovery.zen.ping.multicast.enabled: false
discovery.zen.ping.unicast.hosts: ["Log1のIPアドレス","Log2のIPアドレス"]
$ sudo service elasticsearch restart
Internal ELBでは、Log1とLog2に9200/tcpで振り分けを行います。


fluentdのセットアップ
fluentdのセットアップはWeb1、Web2で行います。
まずはfluentd:Installing fluentd Using rpm Packageに書いてる通りにcurlからshを実行します。インストールされるパッケージの名前は「td-agent」です。
$ curl -L http://toolbelt.treasure-data.com/sh/install-redhat.sh | sh
試験的にtd-agentを起動してみます。
$ sudo /etc/init.d/td-agent start
Starting td-agent:                                         [  OK  ]
$ sudo /etc/init.d/td-agent status
td-agent (pid  1605) is running...
試しにサンプルメッセージを送ってみます。
$ curl -X POST -d 'json={"json":"message"}' http://localhost:8888/debug.test
ログを確認すると...ちゃんとPOSTされていることがわかります。
$ cat /var/log/td-agent/td-agent.log
2013-10-30 05:43:15 +0000 debug.test: {"json":"message"}

fluentdからElasticSearchへの連携
Fluent::Plugin::Elasticsearchという素晴らしいfluentd Pluginがあります!

td-agentに付属しているfluent-gemと言うコマンドを使ってセットアップします。
$ sudo /usr/lib64/fluent/ruby/bin/fluent-gem install fluent-plugin-elasticsearch
Fetching: fluent-plugin-elasticsearch-0.1.4.gem (100%)
Successfully installed fluent-plugin-elasticsearch-0.1.4
1 gem installed
Installing ri documentation for fluent-plugin-elasticsearch-0.1.4...
Installing RDoc documentation for fluent-plugin-elasticsearch-0.1.4...
td-agent.confを編集し、Apacheのaccess_logをLogサーバに送信するよう設定します。
td-agentの詳細は公式サイト参照
今回は公式のRecipe(Getting Data From Apache Logs Into Elasticsearch Using Fluentd)を参考にしました。hostにInternal ELBのFQDNを記述しています。
$ sudo vi /etc/td-agent/td-agent.conf
<source>
  type tail
  path /var/log/httpd/access_log
  pos_file /var/log/td-agent/httpd-access.log.pos
  tag apache.access
  format apache2
</source>
<match apache.*>
  type elasticsearch
  host internal-inelb-1234567890.us-west-2.elb.amazonaws.com
  port 9200
  index_name fluentd
  type_name httpd
</match>
apacheのログフォルダはUser:root、Group:rootのパーミッション:700になっているため、ユーザーtd-agentの権限ではログファイルが参照できません。このためログフォルダのパーミッションを変更します。
$ sudo chmod 755 /var/log/httpd
設定後、サービスを再起動します。
$ sudo service td-agent restart
動作確認
Web1、Web2にcurlでアクセスします。
$ curl http://Web1のIPアドレス/
$ curl http://Web2のIPアドレス/
Log1(ElasticSearch ClusterのMaster)の/var/log/elasticsearch/elasticsearch.logを確認すると、index,type(mapping)がcreateされたことが分かります。
[2013-10-30 06:49:32,659][INFO ][cluster.metadata         ] [Gabriel, Devil Hunter] [fluentd] creating index, cause [auto(bulk api)], shards [5]/[1], mappings []
[2013-10-30 06:49:33,602][INFO ][cluster.metadata         ] [Gabriel, Devil Hunter] [fluentd] update_mapping [httpd] (dynamic)
それでは、Log1のElasticSearchのデータを確認してみます。
$ curl -XGET "http://Log1のIPアドレス:9200/fluentd/httpd/_search" -d '
>   {
>     "query":
>     { "wildcard":{"host":"*"}}
>   }'
{"took":8,"timed_out":false,"_shards":{"total":5,"successful":5,"failed":0},"hits":{"total":4,"max_score":1.0,"hits":[{"_index":"fluentd","_type":"httpd","_id":"g-qhXOYISzitEpTFw8S0xQ","_score":1.0, "_source" : {"host":"172.31.1.223","user":null,"method":"GET","path":"/","code":403,"size":3839,"referer":null,"agent":"curl/7.29.0"}},{"_index":"fluentd","_type":"httpd","_id":"a7BETJlpTS2IcRRfJJw-xA","_score":1.0, "_source" : {"host":"172.31.44.7","user":null,"method":"GET","path":"/","code":403,"size":3839,"referer":null,"agent":"curl/7.29.0"}},{"_index":"fluentd","_type":"httpd","_id":"-P9nSIahRQCoPfkHVvldUQ","_score":1.0, "_source" : {"host":"172.31.44.7","user":null,"method":"GET","path":"/","code":403,"size":3839,"referer":null,"agent":"curl/7.29.0"}},{"_index":"fluentd","_type":"httpd","_id":"o8nvlG5aS0i3y6HdXnbG0Q","_score":1.0, "_source" : {"host":"172.31.1.223","user":null,"method":"GET","path":"/hoge","code":404,"size":280,"referer":null,"agent":"curl/7.29.0"}}]}}
ちゃんとaccess_logが登録されています。

次にLog2のElasticSearchのデータを確認します。
$ curl -XGET "http://Log2のIPアドレス:9200/fluentd/httpd/_search" -d '
>   {
>     "query":
>     { "wildcard":{"host":"*"}}
>   }'
{"took":10,"timed_out":false,"_shards":{"total":5,"successful":5,"failed":0},"hits":{"total":4,"max_score":1.0,"hits":[{"_index":"fluentd","_type":"httpd","_id":"g-qhXOYISzitEpTFw8S0xQ","_score":1.0, "_source" : {"host":"172.31.1.223","user":null,"method":"GET","path":"/","code":403,"size":3839,"referer":null,"agent":"curl/7.29.0"}},{"_index":"fluentd","_type":"httpd","_id":"a7BETJlpTS2IcRRfJJw-xA","_score":1.0, "_source" : {"host":"172.31.44.7","user":null,"method":"GET","path":"/","code":403,"size":3839,"referer":null,"agent":"curl/7.29.0"}},{"_index":"fluentd","_type":"httpd","_id":"-P9nSIahRQCoPfkHVvldUQ","_score":1.0, "_source" : {"host":"172.31.44.7","user":null,"method":"GET","path":"/","code":403,"size":3839,"referer":null,"agent":"curl/7.29.0"}},{"_index":"fluentd","_type":"httpd","_id":"o8nvlG5aS0i3y6HdXnbG0Q","_score":1.0, "_source" : {"host":"172.31.1.223","user":null,"method":"GET","path":"/hoge","code":404,"size":280,"referer":null,"agent":"curl/7.29.0"}}]}}
こちらもLog1と同等にaccess_logが登録されています。ちゃんとログが分散されて保存されていますね!

感想
これが出来ると、今度は可読性の高いログ参照ソフトウェアが欲しくなります。ということで、次はElasticSearch-Headを調べたいと思います!





[24時間365日] サーバ/インフラを支える技術 ‾スケーラビリティ、ハイパフォーマンス、省力運用 (WEB+DB PRESS plusシリーズ)[24時間365日] サーバ/インフラを支える技術 ‾スケーラビリティ、ハイパフォーマンス、省力運用 (WEB+DB PRESS plusシリーズ)
安井 真伸,横川 和哉,ひろせ まさあき,伊藤 直也,田中 慎司,勝見 祐己

技術評論社
売り上げランキング : 10377

Amazonで詳しく見る by AZlink