ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。html
Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特色有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。java
Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。通常工做方式为c/s架构,client端安装在须要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操做在一并发往elasticsearch上去。node
Kibana 也是一个开源和免费的工具,Kibana能够为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,能够帮助汇总、分析和搜索重要数据日志。bootstrap
Filebeat隶属于Beats。目前Beats包含四种工具:
一、Packetbeat(搜集网络流量数据)
二、Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用状况等数据)
三、Filebeat(搜集文件数据)
四、Winlogbeat(搜集 Windows 事件日志数据)vim
通常咱们须要进行日志分析场景:直接在日志文件中 grep、awk 就能够得到本身想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。须要集中化的日志管理,全部服务器上的日志收集汇总。常看法决思路是创建集中式日志收集系统,将全部节点上的日志统一收集,管理,访问。
通常大型系统是一个分布式部署的架构,不一样的服务模块部署在不一样的服务器上,问题出现时,大部分状况须要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,能够提升定位问题的效率。
一个完整的集中式日志系统,须要包含如下几个主要特色:收集、传输、存储、分析、警告,而ELK提供了一整套解决方案,而且都是开源软件,之间互相配合使用,完美衔接,高效的知足了不少场合的应用。而且是目前主流的一种日志系统。ruby
Filebeat:
https://www.elastic.co/cn/products/beats/filebeat
https://www.elastic.co/guide/en/beats/filebeat/5.6/index.html服务器
Logstash:
https://www.elastic.co/cn/products/logstash
https://www.elastic.co/guide/en/logstash/5.6/index.htmlrestful
Kibana:
https://www.elastic.co/cn/products/kibana
https://www.elastic.co/guide/en/kibana/5.5/index.html网络
Elasticsearch:
https://www.elastic.co/cn/products/elasticsearch
https://www.elastic.co/guide/en/elasticsearch/reference/5.6/index.html架构
elasticsearch中文社区:
https://elasticsearch.cn/
一、安装Java环境
yum -y install java-1.8.0-openjdk export JAVA_HOME=/usr/java
二、编写Elasticearch的yum仓库文件
rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch vim /etc/yum.repos.d/elasticsearch.repo [elasticsearch-6.x] name=Elasticsearch repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum clean all
三、安装Elasticsearch
yum -y install elasticsearch
四、配置Elasticsearch
vim /etc/elasticsearch/elasticsearch.yml cluster.name: KJ-Cloud #配置集群名称 node.name: node.kemin-cloud.com #配置节点名称 path.data: /var/lib/elasticsearch #配置data存放的路径 path.logs: /var/log/elasticsearch #配置日志存放的路径 bootstrap.memory_lock: false #配置是否使用内存交换分区 bootstrap.system_call_filter: false #配置是否启用检测 network.host: 0.0.0.0 #配置监听地址 http.port: 9200 #配置监听端口 discovery.zen.ping.multicast.enabled: false #配置是否启用广播地址 discovery.zen.ping.unicast.hosts: ["127.0.0.1"] #配置指定节点
五、增长vm.max_map_count项到sysctl.conf文件中
vim /etc/sysctl.conf vm.max_map_count = 655360 sysctl -p
六、修改用户文件最大数量
vim /etc/security/limits.conf * soft nofile 65536 * hard nofile 131072 * soft nproc 2048 * hard nproc 4096 vim /etc/security/limits.d/90-nproc.conf * soft nproc 1024 #修改成* soft nproc 2048
七、验证Elasticsearch是否正常
curl http://127.0.0.1:9200/
努力爬坑。。。。
报错:system call filters failed to install; check the logs and fix your configuration or disable system call filters at your own risk
缘由:这是在由于操做系统不支持SecComp,而ES5.2.2默认bootstrap.system_call_filter为true进行检测,因此致使检测失败,失败后直接致使ES不能启动。
解决:vim /etc/elasticsearch/elasticsearch.yml
bootstrap.memory_lock: false
bootstrap.system_call_filter: false报错:max virtual memory areas vm.max_map_count [65536] is too low, increase to at least [262144]
缘由:最大虚拟内存区域设置太小
解决:vim /etc/sysctl.conf
vm.max_map_count = 655360报错:max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536],max number of threads [1024] for user [lishang] likely too low, increase to at least [2048]
缘由:最大文件描述符和最大线程数设置太小
解决:vi /etc/security/limits.conf
* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 4096报错:max number of threads [1024] for user [lish] likely too low, increase to at least [2048]
缘由:用户最大线程数设置太小
解决:vi /etc/security/limits.d/90-nproc.conf
* soft nproc 1024 #修改成* soft nproc 2048
一、编写Logstash的yum仓库文件
rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch vim /etc/yum.repos.d/logstash.repo [logstash-6.x] name=Elastic repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum clean all
二、安装Logstash
yum -y install logstash
三、测试Logstash
/usr/share/logstash/bin/logstash -e 'input { stdin { } } output { elasticsearch { hosts => ["127.0.0.1:9200"] } stdout { codec => rubydebug }}'
一、编写Kibana的yum仓库文件
rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch vim /etc/yum.repos.d/kibana.repo [kibana-6.x] name=Kibana repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum clean all
二、安装Kibana
yum install kibana
3、配置Kibana
vim /etc/kibana/kibana.yml server.port: 5601 server.host: "0.0.0.0" elasticsearch.url: "http://127.0.0.1:9200" kibana.index: ".kibana"
四、启动Kibana
service kibana start
五、测试访问Kibana
http://127.0.0.1:5601
总的来讲,ELK日志搜集分析平台搭建是遇到的问题仍是会有的,和服务器有关,因此在服务起不来,报错的状况下莫慌,稳住,想看报错,而后分析,报错说哪里有问题就调整哪里,一步一步来,这仅仅是部署搭建而已,真正的运用搜集日志还没开始呢,后面还会更新有关Logstash的更多知识,若是小伙伴们在搭建的过程当中有什么问题还能够在下方留言,咱们能够一块儿探讨探讨~~