微服务自己并无一个严格的定义,不过从不少人的反馈来看,你们都达成了这样一个共识:微服务是一种简单的应用,大概有10到100行代码。我知道使用代码行数来比较实现其实很不靠谱,所以你能理解这个意思就行,没必要过度拘泥于细节。不过有一点须要注意,那就是微服务一般都是很小的,甚至是微型的。这意味着你不会在大型框架上看到不少小服务,这是不切实际的。简单与轻量级是当今的主流。诸如Sinatra、Webbit、Finagle与Connect等小型框架在将你的代码包装到一个薄薄的通讯层这方面作得刚恰好。面试
微服务架构带来的变化缓存
微服务架构给IT系统和团队带来了如下显著的变化:安全
微服务架构下用户面临的监控问题性能优化
在转型到微服务架构之后,用户在监控方面主要会面临如下问题。网络
首先,监控配置的维护成本增长。某个在线系统大概有106个模块,每一个模块都须要添加端口监控,进程监控,日志监控和自定义监控;不一样服务的监控指标,聚合指标,报警阈值,报警依赖,报警接收人,策略级别,处理预案和备注说明也不彻底相同;如此多的内容,如何确保是否有效,是否生效,是否完整无遗漏。架构
当前针对维护成本,业界经常使用的几种方法有:并发
其次,第三方依赖愈来愈多。例如Docker的可靠性很大程度上取决于宿主机,若是所在的宿主机发生资源争用,网络异常,硬件故障,修改内核参数,操做系统补丁升级等,均可能会让Docker莫名其妙地中招。框架
第三,服务故障的定位成本增长。假设故障是由于特定服务处理耗时增大致使的,那么如何快速从106个服务以及众多的第三方依赖中把它找出来,进一步,又如何确认是这个服务的单个实例仍是部分实例的异常,这些都让故障定位变得更复杂。运维
在微服务架构下,提升故障定位效率的经常使用方法有:基于各种日志分析,经过仪表盘展现核心指标:数据流,异常的监控策略,变动内容,线上登陆和操做记录,文件修改等内容。机器学习
微服务监控的难点及解决思路
在微服务架构下,监控系统在报警时效性不可改变的前提下,采集的指标数量是传统监控的三倍以上,若是是万台以上的规模,监控系统总体都面临很是大的压力,在监控方面的挑战主要来源于:
首先,存储功能的写入压力和可用性都面临巨大挑战。每秒写入几十万采集项而且须要保证99.99%的可用性,对于任何存储软件来说,都不是一件轻松的事情。
对于写入和可用性的压力,业界常见的解决思路主要是基于以下方式的组合:
其次,监控的生效速度也面临巨大挑战。微服务架构下,基于弹性伸缩的加持,从服务扩容或者迁移完毕到接入流量的耗时下降到1Min左右,且每时每刻都在不断发生着。对于复杂监控系统来说,支持这样的变动频率绝非易事,并且实例变动如此频繁,对监控系统自身来说,也会面临可用性的风险。
常见的提升监控生效速度的思路主要有以下的几种方式:
第三,基础设施的故障可能致使报警风暴的发生。基础设施如IDC故障,可能会在瞬时产生海量报警,进而致使短信网关拥塞较长时间。
解决这类问题的思路主要是以下方式:
微服务监控原则
对于采用微服务的团队,建议在作监控时能够参考Google SRE的理论,结合长期的运维实践经验,咱们总结了几点能够参考的原则:
另外,咱们也给你们提供了一些黑盒监控的实施经验:
首先,应该监控哪些功能?建议将系统接入层的访问日志,TOP-10的URL添加黑盒监控。那TOP-9的URL是否必定须要监控?TOP-11的URL是否必定不须要监控?这取决于其访问量是否和前面的URL在一个数量级以及人工评估其接口的重要性程度,这里提供的更可能是一个思路,而非可量化的方法。
第二,应该使用多少个样本/节点对一个功能进行黑盒监控?建议样本应该覆盖到对应模块的全部实例,这样也能发现由少数实例致使的小规模故障。
微服务架构下的理想监控系统
从用户的角度看,Prometheus的总体架构设计参考了Google BorgMon,系统具备高度的灵活性,围绕其开放性如今也慢慢造成了一个生态系统。具体来讲,Prometheus 使用的是 Pull 模型,Prometheus Server 经过 HTTP 的 Pull 方式到各个目标拉取监控数据。HTTP协议的支持可以更加方便的进行定制化开发,服务注册、信息采集和数据展现均支持多种形式/开源软件。
结合目前国内正在兴起的智能运维,也许不久的未来,上面提到的监控的各类问题也就迎刃而解了。监控策略不在须要人工定义,转由机器学习负责,诸如策略添加,阈值设定,异常检测,故障定位,自动止损等逐步由系统负责,运维人员再也不是“救火队长”。
京东云监控响应实践
京东云运维平台为数万台机器提供监控,部署,机器管理,权限管理,安全管理,审计和运营分析等功能,为京东云全部的业务在各种异构网络环境下提供标准和统一的运维支撑能力。
基于产品所处的发展阶段,用户规模的不一样,报警频率也不尽相同。理想状况下,报警频率应该等同于故障频率,这里面体现了报警的准确度和召回率两个指标,若是每一个报警都对应一个服务故障,则准确度为100%,同理,若是每次服务故障均有报警产生,则召回率为100%。你们能够基于上述两个指标,来衡量本身团队的现状,并针对性的制定提高计划便可。
对于响应流程,京东云有几个作的好的地方能够给你们参考:
首先,全部核心报警均有可靠的应对预案和处理机制,并经过按期的破坏演练持续进行完善。
其次,公司的监控中心会7x24值守,他们也会和业务线运维同窗同样,接收全部影响核心系统稳定性的报警,收到报警后会进行通报,确保核心报警在发生后第一时间内有人处理并在规定的时间内处理完毕。若是未在规定的时间内处理完毕,监控中心会进行报警升级,通报该系统的管理人员,从而确保该报警能够获得更高的重视度和支持力度。
总结
对于监控系统的将来发展,长期来看,依托于Kubernetes的发展,在基础设施的各个领域,都会从百花齐放到几家独大,从而将标准化落地到基础设施的各个领域,进而促进整个生态的繁荣。
关注做者,我会不按期在思否分享Java,Spring,MyBatis,Netty源码分析,高并发、高性能、分布式、微服务架构的原理,JVM性能优化、分布式架构,BATJ面试 等资料...