|
加上个人实践意见,及如何避坑
: H4 v* \5 X2 J8 t1 r请不要用log4j2 不然不成功。我的版本就是这个结果 1 T3 e+ ?- E3 x+ o1 t0 ~3 u
没有图片,图片参考下面的网址 http://blog.csdn.net/mchdba/article/details/52132663& n6 F$ U" N9 F
1 d( W9 ^- @& N& q1、ELK平台介绍在搜索ELK资料的时候,发现这篇文章比较好,于是摘抄一小段:以下内容来自: http://baidu.blog.51cto.com/71938/1676798 日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。
1 w9 }$ I) e: e8 e" g通常,日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。当务之急我们使用集中化的日志管理,例如:开源的syslog,将所有服务器上的日志收集汇总。 2 r! c7 e G% ^ J; L7 [/ E, C$ g
集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用grep、awk和wc等Linux命令能实现检索和统计,但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。 w4 W2 _; a G' ^- ~4 x8 P7 s
开源实时日志分析ELK平台能够完美的解决我们上述的问题,ELK由ElasticSearch、Logstash和Kiabana三个开源工具组成。官方网站: https://www.elastic.co/product E:\u\elk\pic\01_1.png
, ^% q* ~: M! F9 ^: S# y" j6 C* `7 _0 M5 ]7 L
$ f- F9 S5 `- r/ S# S
* h+ H T8 j1 e
2、安装准备 | | | | Centos release 6.7 (Final) | | | | | | | | |
注:由于Logstash的运行依赖于Java环境,而Logstash1.5以上版本不低于Java 1.7,因此推荐使用最新版本的Java。因为我们只需要Java的运行环境,所以可以只安装JRE,不过这里我依然使用JDK,请自行搜索安装,我这里准备使用1.7
! ^! Y6 \! Y9 }8 J3 M
) @9 {/ b0 ^: \9 f: t+ J( L8 k9 D# k) Q0 e ?$ q, K
% Q% j7 K9 k/ V5 Q3 M' V& J3、下载官方网址:https://www.elastic.co/downloads,如下图所示:E:\u\elk\pic\01_2.png 0 S8 B* K* Z. K& ?) {: _, d
7 P1 y3 M6 t5 y从中获得下载地址: & @6 ~7 l3 F0 @4 _! v
. g, X0 y- z+ I* x! G4、安装调试4.1、安装jdk使用root安装jdk mkdir -p /usr/lib/jvm tar -xvf jdk-8u45-linux-x64.tar.gz -C /usr/lib/jvm - y, @8 K3 G7 |) F, v- s" `
# vim /etc/profile 配置系统参数/ _* b+ f/ r4 l9 r
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_45& T. M( F' T0 I
export JRE_HOME=${JAVA_HOME}/jre
$ b* [2 t( ?: A; U2 Rexport CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
) X2 m7 N+ `/ M. e& |$ _9 mexport PATH=${JAVA_HOME}/bin:$PATH
. ?1 {6 M0 y+ @5 G0 v( Usudo update-alternatives --install /usr/bin/java java /usr/lib/jvm/jdk1.8.0_45/bin/java 300 sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jvm/jdk1.8.0_45/bin/javac 300 | " S: _! g% V, [# C
" t% s F/ G" P$ h3 R2 p4.2、安装elasticsearch使用elk账号安装elasticearch: # 解压缩安装 useradd elk su - elk tar -xvf elasticsearch-2.3.4.tar.gz cd elasticsearch-2.3.4 0 V# d: F- m4 W$ Y) [, H+ J; D
# 安装Head插件 ./bin/plugin install mobz/elasticsearch-head ls plugins/ ( Y4 r8 Q7 D6 j, l2 G& O: P1 _- l) @
# ls能看到head文件即可表示ok了。 [elk@hch_test_dbm1_121_62 elasticsearch-2.3.4]$ ll plugins/ 总用量 4 drwxrwxr-x. 5 elk elk 4096 8月 2 17:26 head [elk@hch_test_dbm1_121_62 elasticsearch-2.3.4]$ | ; g4 Y9 z* p8 w- u, Z/ K
! U' H6 _& U8 t( Z2 a2 s. w0 e$ O9 u' X* R9 L! u
编译es的配置文件: cluster.name: es_cluster node.name: node0 9 k+ s! k! i# K9 ?6 F6 c3 ~# @
path.data: /home/elk/data path.logs: /home/elk/logs # 当前的host ip地址 network.host: 192.168.121.62 network.port: 9200 | 9 a. `9 y, U% ~- W" `
启动es: ./bin/elasticsearch & [Failed to load settings from [elasticsearch.yml]]坑一 这里整理几个空格引起的问题. 版本是elasticsearch-2.3.0 或者elasticsearch-rtf-master 解决网址 http://www.bubuko.com/infodetail-1639745.html
K6 Q+ A! X b7 ? r看后台日志,发现它和其它的节点的传输端口为9300,而接受HTTP请求的端口为9200。日志如下所示: [elk@hch_test_dbm1_121_62 elasticsearch-2.3.4]$ more ../logs/es_cluster.log [2016-08-02 17:47:23,285][WARN ][bootstrap ] unable to install syscall filter: seccomp unavailable: requires kernel 3.5+ with CONFIG_SECCOMP and CONFIG_SECCOMP_FILTER compiled in [2016-08-02 17:47:23,579][INFO ][node ] [node0] version[2.3.4], pid[21176], build[e455fd0/2016-06-30T11:24:31Z] [2016-08-02 17:47:23,586][INFO ][node ] [node0] initializing ... [2016-08-02 17:47:24,213][INFO ][plugins ] [node0] modules [reindex, lang-expression, lang-groovy], plugins [head], sites [head] [2016-08-02 17:47:24,235][INFO ][env ] [node0] using [1] data paths, mounts [[/home (/dev/mapper/vg_dbmlslave1-lv_home)]], net usable_space [542.1gb], net total_space [10 17.2gb], spins? [possibly], types [ext4] [2016-08-02 17:47:24,235][INFO ][env ] [node0] heap size [989.8mb], compressed ordinary object pointers [true] [2016-08-02 17:47:24,235][WARN ][env ] [node0] max file descriptors [4096] for elasticsearch process likely too low, consider increasing to at least [65536] [2016-08-02 17:47:25,828][INFO ][node ] [node0] initialized [2016-08-02 17:47:25,828][INFO ][node ] [node0] starting ... [2016-08-02 17:47:25,939][INFO ][transport ] [node0] publish_address {192.168.121.62:9300}, bound_addresses {192.168.121.62:9300} [2016-08-02 17:47:25,944][INFO ][discovery ] [node0] es_cluster/626_Pu5sQzy96m7P0EaU4g [2016-08-02 17:47:29,028][INFO ][cluster.service ] [node0] new_master {node0}{626_Pu5sQzy96m7P0EaU4g}{192.168.121.62}{192.168.121.62:9300}, reason: zen-disco-join(elected_as_master, [0] joins received) [2016-08-02 17:47:29,116][INFO ][http ] [node0] publish_address {192.168.121.62:9200}, bound_addresses {192.168.121.62:9200} [2016-08-02 17:47:29,117][INFO ][node ] [node0] started [2016-08-02 17:47:29,149][INFO ][gateway ] [node0] recovered [0] indices into cluster_state [elk@hch_test_dbm1_121_62 elasticsearch-2.3.4]$ |
3 `/ r# P/ h( F V; u. \" o; \1 \
打开url地址http://192.168.121.62:9200/,E:\u\elk\pic\01_3.png
' T0 [0 x' _! z. ?! W C8 _7 i3 O& p
& ?4 M' w6 @! a8 W% W
6 B1 ?) V, O% f看返回结果,有配置的cluster_name、节点name信息以及安装的软件版本信息,其中安装的head插件,它是一个用浏览器跟ES集群交互的插件,可以查看集群状态、集群的doc内容、执行搜索和普通的Rest请求等。可以使用web界面来操作查看http://192.168.121.62:9200/_plugin/head/,如下图E:\u\elk\pic\01_4.png: 0 u& v+ x4 i; |% t' D
( U$ C& K2 f( _) b; P5 s! b& E9 A" Q& Y可以从界面看到,当前的elas集群里面没有index也没有type,所以是空记录。
. S* g2 {, W7 }3 `) M" ~& _
8 s0 U& `8 Q8 K& O- C% ^; g4.3、安装logstashlogstash其实它就是一个 收集器 而已,我们需要为它指定Input和Output(当然Input和Output可以为多个)。由于我们需要把Java代码中Log4j的日志输出到ElasticSearch中,因此这里的Input就是Log4j,而Output就是ElasticSearch。 结构图如E:\u\elk\pic\02.png所示: ' d. h4 I5 n$ ]7 Q" g+ D
安装配置:
1 Z, r1 ]& M; A" o$ E: q, [( M) s
: i, T6 G6 ~' F& \" W! _8 i6 Q2 h- W# O启动logstash,2个参数一个是agent一个是配置文件: [elk@hch_test_dbm1_121_62 logstash-2.3.4]$ ./bin/logstash agent -f config/log4j_to_es.conf Settings: Default pipeline workers: 32 log4j:WARN No appenders could be found for logger (org.apache.http.client.protocol.RequestAuthCache). log4j:WARN Please initialize the log4j system properly. log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info. Pipeline main started |
% p9 p" K4 C* g$ P6 l; x5 l接下来,可以使用logstash来收集日志并保存到es中了,可以使用一段java代码来实现它。
7 K% P9 ~$ G5 k: Z% l, m- f* h+ Z2 d9 W5 m. e# q5 D
要记得,logstash是一个收集器 ! W* G; e' C9 g" G; f8 G
% L9 ]6 P9 \! x* O! F9 n- b4.4、elk3测试工程工程环境是eclipse,工程大概目录结构如下图E:\u\elk\pic\04.png,一个java类Application.java,一个日志配置文件log4j.properties,一个调度配置文件pom.xml: ' h* l+ B, @: f
; i! |; x) U2 D/ `4 t7 z" R
(1)Application.java package com.demo.elk; import org.apache.log4j.Logger; public class Application { private static final Logger LOGGER = Logger.getLogger(Application.class); public Application() { // TODO Auto-generated constructor stub } public static void main(String[] args) { // TODO Auto-generated method stub for (int i = 0; i < 10; i++) { LOGGER.error("Info log [" + i + "]."); try { Thread.sleep(500); } catch (InterruptedException e) { // TODO Auto-generated catch blockl e.printStackTrace(); } } } } | & h' P: Y. N# n2 `, T2 [" s! v5 c
: r2 c$ u* h, I(2)Pom.xml: <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>elk3</groupId> <artifactId>elk3</artifactId> <version>0.0.1-SNAPSHOT</version> <name>elk3</name> <dependency> <groupId>log4j</groupId> <artifactId>log4j</artifactId> <version>1.2.17</version> </dependency> </project> |
! h2 ?! J6 h( q% ?' }& j6 g6 T& T- L' G8 S! \: k" l: n$ i
(3) log4j.properties Log4j.properties,将Log4j的日志输出到 SocketAppender ,因为官网是这么说的E:\u\elk\pic\01_5.png:
2 X( }( O( C: T8 F4 ?( C* R3 h( w% v0 G! `$ ^; y1 s ]
9 c# T) q, G4 U- b
Log4j.properties文件: log4j.rootLogger=INFO,console 1 Z& I* E! z, T4 [4 i4 V1 Q
# for package com.demo.elk, log would be sent to socket appender. log4j.logger.com.demo.elk=DEBUG, socket
" y4 s4 H }: J$ \# appender socket log4j.appender.socket=org.apache.log4j.NET.SocketAppender log4j.appender.socket.Port=4567 log4j.appender.socket.RemoteHost=192.168.121.62 log4j.appender.socket.layout=org.apache.log4j.PatternLayout log4j.appender.socket.layout.ConversionPattern=%d [%-5p] [%l] %m%n log4j.appender.socket.ReconnectionDelay=10000 ( p; B" ?: q7 P6 n
# appender console log4j.appender.console=org.apache.log4j.ConsoleAppender log4j.appender.console.target=System.out log4j.appender.console.layout=org.apache.log4j.PatternLayout log4j.appender.console.layout.ConversionPattern=%d [%-5p] [%l] %m%n | v9 r' r9 H) d7 V/ o
& {# e) S6 E* D9 s+ z1 Y, p8 U
. c* |% T. I+ C# I/ B* T3 P注意:这里的端口号需要跟Logstash监听的端口号一致,这里是4567。 . |, ?6 U6 |- c" j, E6 M
1 F x) s; K9 O% M8 d" @+ h4.5、eclipse调试结果(1)eclipse查看调试结果 在eclipse里面允许java程序,查看console的输出信息(这个output只是为了做一验证,没有这一步不输出到console也是可以的),调试成功后输出结果如下图E:\u\elk\pic\05.png所示: ' F: S4 H9 m8 G5 n9 o
坑二:这里搞完后,Elasticsearch没有展示的结果 这里我就换了一个log的配置文件,成xml <?xml version="1.0" encoding= "UTF-8" ?> <!DOCTYPE log4j:configuration SYSTEM "log4j.dtd"> <log4j:configuration xmlns:log4j="http://jakarta.apache.org/log4j/"> <appender name="ConsoleAppender" class="org.apache.log4j.ConsoleAppender" > <layout class="org.apache.log4j.PatternLayout" > <param name="ConversionPattern" value="%d{yyyy/MM/dd-HH:mm:ss} >> %5p >> %t >> %l >> %m%n" /> </layout> </appender> <appender name="socketAppender" class="org.apache.log4j.net.SocketAppender"> <param name="remoteHost" value="192.168.1.128" /><!-- \u8FDC\u7A0B\u4E3B\u673A\u5730\u5740 --> <param name="port" value="4567" /><!-- \u8FDC\u7A0B\u4E3B\u673A\u7AEF\u53E3 --> <param name="Threshold" value="DEBUG" /> <param name="ReconnectionDelay" value="60000" /> <param name="LocationInfo" value="true" /> </appender> <root> <priority value="debug" /> <appender-ref ref="ConsoleAppender" /> <appender-ref ref="socketAppender" /> </root> </log4j:configuration> 。。。然后尝试了几次,就成功了。 9 S& ~& P9 p2 A
& y& B# [, \+ Y& ?/ g) E (2)去Elasticsearch的head界面查看效果 去界面http://192.168.121.62:9200/_plugin/head/查看效果,点击概览里面,看到下面绿色的就是primay分片,下面灰色的为非primay备份分片,如下图E:\u\elk\pic\06.png所示:
) \! U% Q4 i3 U) V1 Z4 K C$ x/ q' ?# a
其中: A:docs: 20(20)表示一共有20个文档,一个文档一个日志记录; B:node0 表示只有一个分片,5个备份,分片暂时没有地方存放,所以显示为灰色Unassigned状态; C:es_cluster集群健康值: yellow (6 of 12)表示因为有的分片没有地方存放所以集群报出了警告的黄色字体信息;
" v6 ~, h2 B, A4 O* D1 `
2 J9 n9 H: d9 s6 d6 x0 m7 R) Q(3)去Elasticsearch的brower界面查看效果 E:\u\elk\pic\07.png - i4 g$ x. l; z: m
) g* n$ j8 B& C0 Z' |其中索引中的.kibana applog:表示是生成的索引集群,kibana暂时是空的,没有记录不遍历查询,而applog有5个分片记录。 查询 6 个分片中用的 5 个. 30命中.耗时0.054秒 表示:看到6个分片,其中有5个是applog,有30个是执行了3次eclipse所产生的log记录次数。 1 p- c( z, L U
6 A. c+ h1 e! N4 X7 B(4)查看单个文档_index信息 在选择中的单个文档,点击左键,就会弹出单个文档的全部信息,除了message是我们的日志内容,其它都是logstash增加的内容信息,新增加的这些字段信息涵义可以参考官网:https://www.elastic.co/guide/en/logstash/current/plugins-inputs-log4j.html的描述,如下图E:\u\elk\pic\08.png所示
# M9 n& |3 W" a: ^7 J6 w
+ M" v/ [+ T, J+ I/ Y1 GPS总结:上面列出的都是单个ES的head界面组件查看到的elas集群的数据和状态,只是一个简单的和elas的交互界面,并不能形成报表或者动态的图表,所以我们需要其它的专业工具来做搜索并生成图表。 9 G& Q4 h( N4 x1 \( \
5 t6 O* A( c t( M; V4.6、安装kinana# 解压缩安装 tar -xvf kibana-4.5.3-linux-x64.tar.gz cd kibana-4.5.3-linux-x64 3 p, J, V3 |5 @3 ]
# 配置 修改配置 vim config/kibana.yml server.port: 5601 server.host: "192.168.121.62" elasticsearch.url: “http://192.168.121.62:9200” kibana.index: ".kibana" $ _0 G: [6 m- g* X9 a O3 G
# 启动kibana ./bin/kibana [elk@hch_test_dbm1_121_62 kibana-4.5.3-linux-x64]$ ./bin/kibana log [14:53:15.975] [info][status][plugin:kibana] Status changed from uninitialized to green - Ready log [14:53:16.021] [info][status][plugin:elasticsearch] Status changed from uninitialized to yellow - Waiting for Elasticsearch log [14:53:16.036] [info][status][plugin:kbn_vislib_vis_types] Status changed from uninitialized to green - Ready log [14:53:16.046] [info][status][plugin:markdown_vis] Status changed from uninitialized to green - Ready log [14:53:16.052] [info][status][plugin:metric_vis] Status changed from uninitialized to green - Ready log [14:53:16.064] [info][status][plugin:spyModes] Status changed from uninitialized to green - Ready log [14:53:16.068] [info][status][plugin:statusPage] Status changed from uninitialized to green - Ready log [14:53:16.072] [info][status][plugin:elasticsearch] Status changed from yellow to green - Kibana index ready log [14:53:16.075] [info][status][plugin:table_vis] Status changed from uninitialized to green - Ready log [14:53:16.084] [info][listening] Server running at http://192.168.121.62:5601 ./bin/kibana ; K) D, ]& L2 V& B' r( Z
| , m" } x0 F! }" P
之后打开界面http://192.168.121.62:5601/status 如下,E:\u\elk\pic\03.png:
# S* H# q2 @) `4 \* v$ r* o* A* }: _3 V% f; Z: o
; W( }: n5 e1 R4 p7 U2 r8 J
4.7、配置kibana为了后续使用Kibana,需要配置至少一个Index名字或者Pattern,它用于在分析时确定ES中的Index。这里我输入之前配置的Index名字applog,Kibana会自动加载该Index下doc的field,并自动选择合适的field用于图标中的时间字段: 再打开http://192.168.121.62:5601/app/kibana,输入applog,会自动弹出如下界面,然后点击“create”按钮保存下,如下图E:\u\elk\pic\09.png所示:
, o# `. \$ H6 I+ u& Q4 ^: l" [7 R; V/ \
创建完成后,自动弹出成功界面,如下图E:\u\elk\pic\10.png所示: , f' f/ L3 K2 O( `" B7 z
" Q( ]* q& v- o ^- o) J" p
0 ]( U+ Y2 |* p t7 Z: g, S$ d4.8、kibana生成图表选择左上角的“Discover”,然后再选择右上角的“List 15 minutes”(如果右上角默认的时间查询没有数据,就需要手动调整查询时间了),如下图E:\u\elk\pic\12.png所示:
7 }# n: ?, s- O8 i6 r& }
$ y4 ^- F/ Y' K3 W. o x
& Z3 n: r* h% p. F/ h9 ~这里为了看到数据信息,所以保守的选择了“Today”,然后会看到今天的记录,也即是看到的elas中的数据记录了,如下图E:\u\elk\pic\13.png所示:
) Z. {/ I9 [/ G$ f4 {
4 X3 l& i" m" Z4 D2 \; H2 f7 s: r; ?$ R" {5 n* ^" i% H3 x
在输入框里面,输入info字样,点击搜索按钮搜索,可以看到搜索匹配的信息如下E:\u\elk\pic\14.png:
* a/ V# z( T( U' O0 [) ^# \
4 O# o1 P- T8 [$ h2 W- f( S
/ g4 h' t: D. a' ~" E8 P' ^+ E点击右上角的“Save Search”按钮,就会保存此次的search结果,如下图E:\u\elk\pic\16.png所示: & A7 f7 h2 u" l) S5 r ]# e
; z0 h" D4 {7 O3 |' ~" s
8 T" u$ e# w6 m7 r接下来去Visualize页面,点击新建一个柱状图(Vertical Bar Chart),然后选择刚刚保存的查询search_logs_save_1,如下图E:\u\elk\pic\17.png所示: 之后进入左边选择x轴为Date Histogram时间轴,显示为时分,间隔为Auto自动间隔,然后点击绿色的三角形按钮“Apply Changes”,kibana将生成类似于下图的柱状图,如下图E:\u\elk\pic\18.png所示: + o/ T3 H" Z: W$ D1 ?+ c# n& f) X
; v8 G+ i9 O, [1 [" ]
然后点击右边的保存按钮“Save Visualization”,可以保存此图为search_log_visual_1,如下图E:\u\elk\pic\19.png所示:
8 T E3 r A2 D$ |% W
) X v/ `' @# D' j; X2 c! X' A+ b9 e4 c4 l5 r$ a0 R: B6 T
然后进入“Dashboard”界面,点击下面的灰色背景的“+”按钮,如下图E:\u\elk\pic\20.png所示:
2 n* ?. B- Z# B' x( r$ q: O* _7 ~) A6 p
然后选择我们刚才保存的visual图,就会展示出来上次我们生成的图表记录,面板上就会显示出原来的图表,如下图E:\u\elk\pic\21.png所示: 5 [/ u7 P: @2 @1 E# I0 k) n
1 L- l8 ]. P3 I! x" _9 R8 Z# t6 `
) f9 K; t9 D- g
如果有较多数据,我们可以根据业务需求和关注点在Dashboard页面添加多个图表:柱形图,折线图,地图,饼图等等。当然,我们可以设置更新频率,让图表自动更新,如下图E:\u\elk\pic\22.png所示: 9 d8 x1 q/ T% i- T8 ]
0 S% M3 Q. J- d8 U+ k4 Z当然如果设置的时间比较紧凑,比较短暂的话,其实就相当于实时分析的图表了,类似于zabbix的监控图了。
i, m* v8 v* q) q2 f2 y3 mOK,最基本的elk平台部署和调试的流程就走完了,接下来就是各种业务场景的使用了。 & Z2 R& v. F/ P( {/ ^1 P; e7 I9 o, {
2 H/ p1 l' ]1 r, F/ s: {3 i* H- H% _
5、一些错误记录(1)start问题 [elk@hch_test_dbm1_121_62 elasticsearch-2.3.4]$ ./bin/elasticsearch & [1] 20726 [elk@hch_test_dbm1_121_62 elasticsearch-2.3.4]$ Exception in thread "main" SettingsException[Failed to load settings from [elasticsearch.yml]]; nested: ElasticsearchParseException[malformed, expected settings to start with 'object', instead was [VALUE_STRING]]; Likely root cause: ElasticsearchParseException[malformed, expected settings to start with 'object', instead was [VALUE_STRING]] at org.elasticsearch.common.settings.loader.XContentSettingsLoader.load(XContentSettingsLoader.java:65) at org.elasticsearch.common.settings.loader.XContentSettingsLoader.load(XContentSettingsLoader.java:45) at org.elasticsearch.common.settings.loader.YamlSettingsLoader.load(YamlSettingsLoader.java:46) at org.elasticsearch.common.settings.Settings$Builder.loadFromStream(Settings.java:1080) at org.elasticsearch.common.settings.Settings$Builder.loadFromPath(Settings.java:1067) at org.elasticsearch.node.internal.InternalSettingsPreparer.prepareEnvironment(InternalSettingsPreparer.java:88) at org.elasticsearch.common.cli.CliTool.<init>(CliTool.java:107) at org.elasticsearch.common.cli.CliTool.<init>(CliTool.java:100) at org.elasticsearch.bootstrap.BootstrapCLIParser.<init>(BootstrapCLIParser.java:48) at org.elasticsearch.bootstrap.Bootstrap.init(Bootstrap.java:226) at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:35) Refer to the log for complete error details. 6 d3 W3 u2 `/ r* n2 k
[1]+ Exit 1 ./bin/elasticsearch [elk@hch_test_dbm1_121_62 elasticsearch-2.3.4]$ | 4 i& V( H$ L. D5 o2 \1 x. k6 W
原因是:配置文件中的=要换成: [elk@hch_test_dbm1_121_62 elasticsearch-2.3.4]$ more config/elasticsearch.yml |grep -v "#" cluster.name: es_cluster node.name: node0 ; @2 k" E( O% _5 U2 G
path.data: /home/elk/data path.logs: /home/elk/logs network.host: 192.168.121.62 network.port: 9200 [elk@hch_test_dbm1_121_62 elasticsearch-2.3.4]$ |
& z* i6 V9 X& D1 T$ s9 V, d6 w. Y
(2)、Unable to fetch mapping. Unable to fetch mapping. Do you haveindices matching the pattern? 4 _; ^" B' s) ?; ]7 n, X0 N
这就说明logstash没有把日志写入到elasticsearch。 解决方法: 检查logstash与elasticsearch之间的通讯是否有问题,一般问题就在这。 + W, h, X2 A& I# z6 r3 h6 M
9 S* O$ r$ `; Z# Z' E2 P: ^" T(3)、log4j报错 log4j:WARN No appenders could be foundfor logger (com.demo.elk.Application). log4j:WARN Please initialize the log4jsystem properly. log4j:WARN Seehttp://logging.apache.org/log4j/1.2/faq.html#noconfig for more info. 解决: (a) jdk版本比较低,需要jdk1.7以上 (b)java类和log4j.properties没有匹配上,在测试中需要将java类和log4j.properties放在一个目录上。 |