记一次kiban出现页面帐号锁定处理node
1、问题出现:web
今天配置了elk,准备作个日志分析平台,因为第一次搭建,不是很熟悉,因此遇到的问题就多了,然而就在启动的时候出现错误。vim
log [08:16:48.906] [error][status][plugin:ml@6.3.0] Status changed from red to red - Redbash
一直说服务Service Unavailable,服务的状态问red。elasticsearch
可是kinaba是已经启动的了tcp
接着咱们访问一下kinaba,咱们发现出现如下的状况:ide
帐号与密码填不进去。grunt
2、问题分析spa
分析一:出现这个状况,我百度找找了,不少人没有遇到过,遇到的都是重启kibana,或说没用安装x-pack插件插件
分析二:kibana配置有问题,或者es的配置出了问题,致使启动kibana链接不上es。
3、解决思路以及办法
思路一:
把kibana kill掉,从新启动
找到kibana启动的端口
[root@node2 ~]# netstat -ntpl | grep 5601 tcp 0 0 172.25.0.30:5601 0.0.0.0:* LISTEN 12180/./bin/../node
从新kill点kibana的进程
[root@node2 ~]#ps -ef | grep node | awk '{print $2}'| xargs kill -9
切换用户启动,从新启动kibana
[root@node2 kibana-6.3.0]# su - www Last login: Sat Sep 29 16:14:07 CST 2018 on pts/3 [www@node2 ~]$ cd /usr/local/src/kibana-6.3.0 [www@node2 kibana-6.3.0]$ ./bin/kibana &
重启完,发现,仍是一样的错误。
思路二:
安装x-pack插件
[root@node2 kibana-6.3.0]# bin/kibana-plugin install x-pack Kibana now contains X-Pack by default, there is no longer any need to install it as it is already present.
发现x-pack是已经装的了,找了一下官网,发如今kibana的6.3版本以上的,x-pack是已经安装的了。
因此这个已是排除的了。
思路三:
检查kibana与es的配置;
kibana的配置,发现只是配置了几个项包括服务ip、es的密码配置:
server.host: "172.25.0.30" xpack.security.enabled: true elasticsearch.username: "elastic" elasticsearch.password: "changeme"
能够很明确的发现,这个不太影响的。
Es的配置:
cluster.name: es-log node.name: node2 path.data: /data/elasticsearch/data path.logs: /data/elasticsearch/logs network.host: 172.25.0.30 discovery.zen.ping.unicast.hosts: ["172.25.0.30", "172.25.0.33"] discovery.zen.minimum_master_nodes: 2 xpack.security.enabled: false
能够发现,好像配置都正常,日志路径、日志路径,集群配置,还真找不出啥问题。
思路四:
判断是不是集群影响的问题
取消集群的配置
把discovery.zen.ping.unicast.hosts: ["172.25.0.30", "172.25.0.33"]去掉 把 discovery.zen.minimum_master_nodes: 2 改成 discovery.zen.minimum_master_nodes: 1
启动es
#su - www #./bin/elasticsearch &
启动kibana
#./bin/kibana
启动发现,kibana启动正常啦。
访问一下kibana。
发现能够进去了啊,能够发现kibana已是能够正常登录了。到这里咱们已是能够知道,是什么缘由致使kibana出现这种状况的了。
思路五:
查看集群状况:
能够发现,咱们的集群,主要是经过ip与默认端口来创建集群关系,致使集群出现这种状况的缘由有cluster.name配置与discovery.zen.ping配置与主集群的配置不对应。
更改从es配置:
#vim cong/elasticsearch cluster.name: es-log discovery.zen.ping.unicast.hosts: ["172.25.0.33", "172.25.0.30"]
从新启动集群
#su - www #./bin/elasticsearch &
在主es启动head插件
#grunt server &
访问head而后访问web的ip与端口
http://172.25.0.30:9100
能够发现集群已经正常了,接下就能够愉快的玩耍了。
4、总结
通过一步步的分析,问题总算是解决了,总之获益良多。