Springboot: 2.1.6.RELEASEhtml
SpringCloud: Greenwich.SR1前端
如无特殊说明,本系列教程全采用以上版本java
在分布式服务架构中,须要对分布式服务进行治理——在分布式服务协同向用户提供服务时,每一个请求都被哪些服务处理?在遇到问题时,在调用哪一个服务上发生了问题?在分析性能时,调用各个服务都花了多长时间?哪些调用能够并行执行?…… 为此,分布式服务平台就须要提供这样一种基础服务——能够记录每一个请求的调用链;调用链上调用每一个服务的时间;各个服务之间的拓扑关系…… 咱们把这种行为称为“分布式服务跟踪”。mysql
现今业界分布式服务跟踪的理论基础主要来自于 Google 的一篇论文《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》,使用最为普遍的开源实现是 Twitter 的 Zipkin,为了实现平台无关、厂商无关的分布式服务跟踪,CNCF 发布了布式服务跟踪标准 Open Tracing。国内,淘宝的“鹰眼”、京东的“Hydra”、大众点评的“CAT”、新浪的“Watchman”、惟品会的“Microscope”、窝窝网的“Tracing”都是这样的系统。git
通常的,一个分布式服务跟踪系统,主要有三部分:数据收集、数据存储和数据展现。根据系统大小不一样,每一部分的结构又有必定变化。譬如,对于大规模分布式系统,数据存储可分为实时数据和全量数据两部分,实时数据用于故障排查(troubleshooting),全量数据用于系统优化;数据收集除了支持平台无关和开发语言无关系统的数据收集,还包括异步数据收集(须要跟踪队列中的消息,保证调用的连贯性),以及确保更小的侵入性;数据展现又涉及到数据挖掘和分析。虽然每一部分均可能变得很复杂,但基本原理都相似。github
服务追踪的追踪单元是从客户发起请求(request)抵达被追踪系统的边界开始,到被追踪系统向客户返回响应(response)为止的过程,称为一个“trace”。每一个 trace 中会调用若干个服务,为了记录调用了哪些服务,以及每次调用的消耗时间等信息,在每次调用服务时,埋入一个调用记录,称为一个“span”。这样,若干个有序的 span 就组成了一个 trace。在系统向外界提供服务的过程当中,会不断地有请求和响应发生,也就会不断生成 trace,把这些带有span 的 trace 记录下来,就能够描绘出一幅系统的服务拓扑图。附带上 span 中的响应时间,以及请求成功与否等信息,就能够在发生问题的时候,找到异常的服务;根据历史数据,还能够从系统总体层面分析出哪里性能差,定位性能优化的目标。spring
Spring Cloud Sleuth为服务之间调用提供链路追踪。经过Sleuth能够很清楚的了解到一个服务请求通过了哪些服务,每一个服务处理花费了多长。从而让咱们能够很方便的理清各微服务间的调用关系。此外Sleuth能够帮助咱们:sql
spring cloud sleuth能够结合zipkin,将信息发送到zipkin,利用zipkin的存储来存储信息,利用zipkin ui来展现数据。docker
Zipkin 是一个开放源代码分布式的跟踪系统,由Twitter公司开源,它致力于收集服务的定时数据,以解决微服务架构中的延迟问题,包括数据的收集、存储、查找和展示。数据库
每一个服务向zipkin报告计时数据,zipkin会根据调用关系经过Zipkin UI生成依赖关系图,显示了多少跟踪请求经过每一个服务,该系统让开发者可经过一个 Web 前端轻松的收集和分析数据,例如用户每次请求服务的处理时间等,可方便的监测系统中存在的瓶颈。
Zipkin提供了可插拔数据存储方式:In-Memory、MySql、Cassandra以及Elasticsearch。接下来的测试为方便直接采用In-Memory方式进行存储,生产推荐Elasticsearch。
根据全球最大同性交友网站(github)搜索zipkin后发现,zipkin如今已经不在推荐使用maven引入jar的方式构建了,目前推荐的方案是直接down他们打好包的jar,用java -jar的方式启动,传送门在这里:https://github.com/openzipkin/zipkin。
The quickest way to get started is to fetch the latest released server as a self-contained executable jar. Note that the Zipkin server requires minimum JRE 8. For example:
curl -sSL https://zipkin.io/quickstart.sh | bash -s java -jar zipkin.jar
You can also start Zipkin via Docker.
docker run -d -p 9411:9411 openzipkin/zipkin
Once the server is running, you can view traces with the Zipkin UI at http://your_host:9411/zipkin/.
If your applications aren't sending traces, yet, configure them with Zipkin instrumentation or try one of our examples. Check out the zipkin-server documentation for configuration details, or docker-zipkin for how to use docker-compose.
以上内容来自zipkin官方github摘录。简单解释就是能够使用https下载的方式下载zipkin.jar,并使用java -jar的方式启动,还有一种就是使用docker的方式进行启动。
具体搭建过程我这里就不在赘述,有不懂的能够私信或者关注公众号留言问我。
zipkin的启动命令就比较谜了。
最简单的启动命令为:nohup java -jar zipkin.jar >zipkin.out 2>&1 &,这时,咱们使用的是zipkin的In-Memory,含义是全部的数据都保存在内存中,一旦重启数据将所有清空,这确定不是咱们想要的,咱们更想数据能够保存在磁盘中,能够被抽取到大数据平台上,方便咱们后续的相关性能、服务状态分析、实时报警等功能。
这里我把使用mysql的启动语句分享出来,有关ES的启动语句基本相同:
STORAGE_TYPE=mysql MYSQL_DB=zipkin MYSQL_USER=name MYSQL_PASS=password MYSQL_HOST=172.19.237.44 MYSQL_TCP_PORT=3306 MYSQL_USE_SSL=false nohup java -jar zipkin.jar --zipkin.collector.rabbitmq.addresses=localhost --zipkin.collector.rabbitmq.username=username --zipkin.collector.rabbitmq.password=password --logging.level.zipkin2=DEBUG >zipkin.out 2>&1 &
注意: 由于链路追踪的数据上报量是很是大的,若是上报数据直接使用http请求的方式推送到zipkin中,颇有可能会把zipkin服务或者数据库冲崩掉,因此我在这里增长了rabbitmq的相关配置,上报数据先推送至rabbitmq中,再由rabbitmq讲数据推送至zipkin服务,这样达到一个请求削峰填谷的做用。
有关zipkin的启动命令能够配置的参数能够看这里:https://github.com/apache/incubator-zipkin/tree/master/zipkin-server
有关zipkin配置mysql基础建表语句能够看这里:https://github.com/apache/incubator-zipkin/blob/master/zipkin-storage/mysql-v1/src/main/resources/mysql.sql
有关zipkin自己配置文件能够看这里:https://github.com/apache/incubator-zipkin/blob/master/zipkin-server/src/main/resources/zipkin-server-shared.yml
至此,zipkin服务应该已经搭建并完成,如今咱们能够访问一下默认端口,看一下zipkin-ui具体长什么样子了。
咱们先将上一篇用到的zuul-simple、Eureka和producer copy到本篇文章使用的文件夹中。
<dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-sleuth</artifactId> </dependency> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-stream-rabbit</artifactId> </dependency>
在zuul-simple和producer两个项目中增长sleuth和rabbitmq的依赖。
增长有关rabbitmq和sleuth的配置,这里我仅给出zuul的配置文件,producer的配置同理。
server: port: 8080 spring: application: name: spring-cloud-zuul rabbitmq: host: host port: port username: username password: password sleuth: sampler: probability: 1.0 zuul: FormBodyWrapperFilter: pre: disable: true eureka: client: service-url: defaultZone: http://localhost:8761/eureka/
这里咱们依次启动Eureka、producer和zuul-simple。
打开浏览器,访问测试链接:http://localhost:8080/spring-cloud-producer/hello?name=spring&token=123
这时咱们先看zuul的日志,以下图:
2019-07-07 23:09:28.529 INFO [spring-cloud-zuul,0596a362d604fb01,0596a362d604fb01,true] 20648 --- [nio-8080-exec-1] c.s.zuulsimple.filter.TokenFilter
咱们打开zipkin-ui的界面,以下图:
这里咱们能够看到这个请求的总体耗时,点击这个请求,能够进入到详情页面,查看每一个服务的耗时:
点击对应的服务,咱们能够看到相应的访问时间,http请求类型、路径、IP、tranceID、spanId等内容,以下图:
参考:
http://daixiaoyu.com/distributed-tracing.html http://www.ityouknow.com/springcloud/2018/02/02/spring-cloud-sleuth-zipkin.html
原文出处:https://www.cnblogs.com/babycomeon/p/11148821.html