zoukankan      html  css  js  c++  java
  • 每日优鲜三面:在Spring Cloud实战中,如何用服务链路追踪Sleuth?

    服务链路追踪:Spring Cloud Sleuth

    我们知道,微服务之间通过网络进行通信,但在我们提供服务的同时,不能保证网络一定是畅通的。相反地,网络是很脆弱的,网络资源也有限,因此我们有必要追踪每个网络请求,了解它们经过了哪些微服务,延迟多少,每个请求所耗费的时间等。只有这样能更好地分析系统瓶颈,解决系统问题。

    在Spring Cloud 中,我们可以使用Spring Cloud Sleuth组件来实现微服务追踪。

    Java学习笔记共享地址:spring cloud面试真题笔记。

    Spring Cloud Sleuth简介

    我们知道,Spring Cloud不重复造轮子,Spring Cloud Sleuth也不例外,它集成了非常强大的跟踪系统——Zipkin。Zipkin是Twitter开源的分布式跟踪系统,基于Dapper的论文设计而来。它的主要功能是收集系统的时序数据”,从而追踪微服务架构的系统延时。

    在学习Spring Cloud Sleuth之前,我们先来认识一些基本术语。

    • span(跨度):基本工作单元。在一个新建的 span中发送一个RPC,相当于发送一个回应给RPC。span被一个唯一的64位ID标识,它还有其他数据信息,比如摘要、时间戳事件、关键值注释( tags )以及进度ID(通常是地址)。span 在不断地启动和停止,同时记录了时间信息,当你创建了一个span,你必须在未来的某个时刻停止它。
    • trace(追踪):一组共享root span的 span组成的树状结构称为trace。trace也用一个64位的ID唯一标识,trace中的所有span都共享该trace的 ID。
    • annotation(标注):用来实时记录一个事件的存在,一些核心annotations 用来定义一个请求的开始和结束。
    • cs,即client sent,客户端发起一个请求,描述span的开始。
    • sr,即 server received,服务端获得请求并准备开始处理它,sr时间戳减去cs时间戳可以得到网络延迟。
    • ss,即server sent,表示请求处理完成(即请求返回客户端),ss时间戳减去sr时间戳可以得到服务端需要的处理请求时间。
    • cr,即 client received,表明span 的结束,客户端成功接收到服务端的回复,cr时间戳减去cs时间戳可以得到客户端从服务端获取回复所需的时间。

    图12-1演示了请求依次经过SERVICE1→SERVICE2一SERVICE3→SERVICE4时,span、trace、annotation的变化。

    利用链路追踪监听网络请求

    本节我们将在项目中集成Spring Cloud Sleuth来监听每个请求,从而更好地优化系统架构。我们知道,Spring Cloud Sleuth底层其实是Zipkin,而Zipkin分为服务端和客户端。如果服务端用户开启链路追踪服务,那么客户端在进行网络请求时就需要和Zipkin 的服务端进行通信。

    下面我们就来分别实现服务端和客户端。

    服务端的实现

    以前,我们需要自己实现Zipkin服务端,但从Spring Boot 2.0以后,官方推出了Zipkin服务端,我们只需要把下载好的服务端jar包放到服务器上启动即可。具体操作如下。

    (1)从网络上下载Zipkin服务端的可执行jar包,下载地址:

    https:/repo1.maven.org/maven2/io/zipkin/java/zipkin-server/2.9.4/zipkin-server-2.9.4-exec.jar。

    (2)将

    zipkin-server-2.9.4-exec.jar修改为zipkin.jar。

    (3)执行下面的命令进入zipkin.jar所在目录:

    java -jar zipkin.jar

    启动成功后,会出现如图12-2所示的界面。

    Zipkin服务端的默认启动端口为9411,浏览器访问localhost:9411即可进入Zipkin服务端管理界面,如图12-3所示。

    Spring Boot官方推荐使用此方式。当然,读者也可以自己实现Zipkin服务端。接下来,将介绍如何实现自己的Zipkin服务端。

    (1)在blog父工程中创建一个 Module,命名为zipkin,在pom.xml中添加以下依赖:

    <dependency>
    <groupId>io.zipkin.java</groupId>
    <artifactId>zipkin-server</ artifactId><version>2.8.4</version>
    </dependency>
    <dependency>
    <groupId>io.zipkin.java</groupId>
    <artifactId>zipkin-autoconfigure-ui</artifactId><version>2.8.4</version>
    </dependency>
    

    在上述配置中,zipkin-server是Zipkin的服务端依赖,zipkin-autoconfigure-ui是Zipkin的管理界面依赖。Zipkin提供了Web管理界面,方便我们追踪查看,因此有必要依赖它。

    (2)创建工程启动类并加入Zipkin注解:

    @SpringBootApplication@EnablezipkinServer
    public class ZipkinApplication {
    public static void main(String[] args){
    SpringApplication.run(ZipkinApplication.class,args);
    }
    }
    

    其中,@EnableZipkinServer注解表示开启Zipkin服务端。

    (3)创建配置文件application.yml :

    server:
    port: 9411management:
    metrics:
    web:
    server:
    auto-time-requests: false
    

    auto-time-requests默认为true,该配置的作用是标识Spring MVC或WebFlux处理的请求是否自动计时,如果要使用计时器可以在每个接口方法处添加@Timed注解。需要注意的是,在Spring Boot 2.0以后,需要将auto-time-requests设置为false,否则会抛出

    java.lang.IllegalAngumentException异常。

    (4)运行ZipkinApplication.jar,启动Zipkin服务端,通过浏览器访问localhost:9411,依然可以看到图12-3所示的界面。

    客户端集成Spring Cloud Sleuth

    单纯启动Zipkin服务端还达不到追踪的目的,我们还必须让微服务客户端集成Zipkin才能跟踪微服务。下面是集成Spring Cloud Sleuth的步骤。

    (1)在common工程的pom.xml文件中添加以下依赖:

    <dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-sleuth-zipkin</artifactId>
    </dependency>
    

    (2)在Git仓库的配置文件eurekaclient.yml中添加以下内容:

    spring:
    zipkin:
    base-url: http://localhost:9411sender:
    type: web
    sleuth:
    sampler:
    probability : 1
    

    其中,spring.zipkin.base-url用来指定Zipkin服务端的地址;

    spring.sleutch.sampler.probability用来指定采样请求的百分比(默认为0.1,即 10%); spring.zipkin.sender.type为追踪日志发送类型,可选值有web、kafka、rabbit,默认为空,因此必须进行设置,否则·Zipkin 不知道以何种类型发送日志,就无法正确追踪服务链路。

    (3)依次启动注册中心、配置中心和 test 工程,浏览器访问localhost:9999/test和 localhost:9411,进入Zipkin界面后,可以看到trace列表,选择Service Name为 test后点击Find a trace按钮,如图12-4所示。

    注意这里test工程需要引入eurekaclient.yml配置文件。在上述界面中,Find Traces按钮以上为搜索条件,Service Name为服务名,当前只访问了test,因此下拉框中只能看到test和 all,all为查询所有服务;Span Name为基本工作单元名,顾名思义为具体请求名,一个请求就是一个span;Lookback为记录时间; Annotations Query为自定义的查询条件,可以对标签进行查询,多个用and 隔开; Duration为服务调用时间,查询大于等于该时间的服务,单位是微秒(需要注意的是,下方的服务请求日志列表中以毫秒为单位,所以在筛选条件时需要进行一次转换,否则无法查询出正确的数据);Limit为显示数量,默认为10;Sort为排序规则。

    Find Traces按钮下方,Showing表示当前请求数量,Services为当前选择的服务名,点击右边的JSON可以看到当前请求的JSON结构;下方列表展示了当前的请求情况,包括请求总耗时(单位为毫秒)、调用的时间、span的数量、请求耗时占比等。

    在实际项目中,读者可以根据Zipkin统计的这些信息发现速度较慢的请求或查询,从而有针对性地对指定请求进行优化。

    通过消息中间件实现链路追踪

    上一节,我们集成了服务链路追踪组件Zipkin,客户端通过指定Zipkin提供的HTTP地址即可完成日志收集。我们知道,客户端可以通过spring.zipkin.sender.type 指定发送类型,除了指定为web 类型还可以通过消息中间件来收集日志。

    本节将利用消息中间件RabbitMQ来完成服务链路追踪日志的收集。

    (1)命令行启动官网提供的zipkin.jar,注意,启动时需要指定RabbitMQ 的 host地址,如:

    java -jar zipkin.jar --RABBIT_ADDRESSES=127.0.0.1
    

    其中,--RABBIT_ADDRESSES即为RabbitMQ的host地址。

    启动完成后,我们访问RabbitMQ的Web管理界面,可以看到,Zipkin Server已经为我们创建了一个名叫zipkin的队列,如图12-5所示。

    (2)在common工程下增加以下依赖:

    <dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-stream-binder-rabbit</artifactId>
    </ dependency>
    

    该依赖实现了消息队列的收发机制,添加该依赖后,客户端就可以通过 RabbitMQ发送消息,ZipkinServer就可以通过RabbitMQ收集日志。

    (3)将eurekaclient.xml的spring.zipkin.base-url注释掉并重启test工程,分别访问test工程接口和Zipkin的Web界面,正常情况下读者可以看到与图12-4类似的效果。

    存储追踪数据

    在前面的操作中,不管是基于Web还是基于消息中间件,收集的日志都默认存放在内存中,即Zipkin Server重启后,追踪的链路数据将被清除,这不符合我们的期望。比较合理的做法是将数据持久化,比如持久化到MySQL、MongoDB、ElasticSearch、Cassandra等数据库中。

    下面以MySQL为例,演示如何将追踪数据存储到数据库中。

    (1)创建数据库zipkin_db(名字可以随意取)并生成数据表(MySQL 的详细安装过程请查看第14章,Zipkin Server官方推荐使用MariaDB ):

    CREATE TABLE IF NOT EXISTS zipkin_spans(
    'trace_id_high` BIGINT NOT NULL DEFAULT 0 CONNENT 'Tf non zero,this means the trace uses
    128 bit traceIds instead of 64 bit',
    `trace_id` BIGINT NOT NULL,
    `id BIGINT NOT NULL,
    name VARCHAR(255)NOT NULL,`parent_id` BIGINT,
    `debug BIT(1),
    `start_ts` BIGINT CONMENT 'Span.timestamp(): epoch micros used for endTs query and to
    implement TTL',
    duration` BIGINT CONMENT 'Span.duration(): micros used for minDuration and maxDuration query'
    )ENGINE=InnoDB ROA_FORMAT=CONPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;
    ALTER TABLE zipkin_spans ADD UNIQUE KEY(`'trace_id_high`, 'trace_id', `id')CONENT 'ignore
    insert on duplicate';
    ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high ', 'trace_id', `id')CONNENT 'for joining
    with zipkin_annotations';
    ALTER TABLE zipkin_spans ADD INDEX(` trace_id_high `, 'trace_id"') CONMMENT 'for getTracesByIds ';ALTER TABLE zipkin_spans ADD INDEX(`name`)COMMENT 'for getTraces and getSpanNames ';
    ALTER TABLE zipkin_spans ADD INDEX(`start_ts')CONMENT 'for getTraces ordering and range ';
    CREATE TABLE IF NOT EXISTS zipkin_annotations (
    'trace_id_high’BIGINT NOT NULL DEFAULT O CONMENT 'Tf non zero, this means the trace uses
    128 bit traceIds instead of 64 bit',
    'trace_id BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.trace_id','span_id BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.id ',
    'a_key’ VARCHAR(255) NOT NJLL COWENT 'BinaryAnnotation.key or Annotation.value if type == -1','a_value’ BLOB CONMENT 'BinaryAnnotation.value(), which must be smaller than 64KB','a_type` INT NOT NULL COMMENT‘BinaryAnnotation.type() or -1 if Annotation',
    'a_timestamp`BIGINT CONMENT 'Used to implement TTL; Annotation.timestamp or zipkin_spans.
    timestamp',
    `endpoint_ipv4` INT COMMENT 'Null when Binary/Annotation.endpoint is null',
    `endpoint_ipv6` BINARY(16)COMMENT 'Null when Binary/Annotation.endpoint is null, or no
    IPv6 address',
    endpoint_port`SMALLINT COMMENT 'Null when Binary/Annotation.endpoint is null',
    endpoint_service_name'VARCHAR(255)CONMMENT 'Null when Binary/ Annotation.endpoint is null'
    )ENGINE=InnoDB RO_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;
    ALTER TABLE zipkin_annotations ADD UNIQUE KEY( trace_id_high , 'trace_id' , 'span_id , ' a_key ',
    'a_timestamp `)COMMENT 'Ignore insert on duplicate';
    ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high , 'trace_id' , 'span_id' ) COMIENT 'for
    joining with zipkin_spans ';
    ALTER TABLE zipkin_annotations ADD INDEX(` trace_id_high , 'trace_id` ) COMMENT 'for getTraces/
    ByIds';
    ALTER TABLE zipkin_annotations ADD INDEX(` endpoint_service_name' ) CONMENT 'for getTraces and
    getserviceNames';
    ALTER TABLE zipkin_annotations ADD INDEX(`a_type') CONMENT 'for getTraces';ALTER TABLE zipkin_annotations ADD INDEX(`a_key') COMMENT 'for getTraces ';
    CREATE TABLE IF NOT EXISTS zipkin_dependencies (
    dayDATE NOT NULL,
    `parent VARCHAR(255)NOT NULL,`child` VARCHAR(255)NOT NULL,`call_count`BIGINT
    ))ENGINE=InnoDB ROA_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;
    ALTER TABLE zipkin_dependencies ADD UNIQUE KEY(` day', 'parent', `child`');
    

    (2)重新启动zipkin.jar,这次启动需要指定数据库连接信息,如:

    java -jar zipkin.jar --RABBIT_ADDRESSES=127.0.0.1--MYSQL_HOST=127.0.0.1
    --MYSQL_TCP_PORT=3306 --MYSQL_USER=root--MYSQL_PASS=1qaz2wSX 
    --MYSQL_DB=zipkin_db--STORAGE_TYPE=mysql
    

    其中--MYSQL_HOST为数据库连接host,默认为localhost; --MYSQL_TCP_PORT为数据库端口,默认为3306; --MYSQL_USER为数据库登录名;--MYSQL_PASs为数据库密码;--MYSQL_DB 为数据库名,默认为zipkin;--STORAGE_TYPE为存储类型,默认为mem,即存储到内存中,可选值有mem、 cassandra、cassandra3、 elasticsearch、mysql,这里设置为mysql。

    (3)重启test工程,可以看到数据库已经存储了追踪数据,如图12-6所示。

    且重启Zipkin Server后,也能通过localhost:9411查询到追踪数据。

    小结

    随着业务越来越复杂,一个看似简单的应用,它的后台可能有几十个甚至几百个服务在支撑。一个请求可能需要多次调用服务才能完成,当请求速度变慢或者不可用时,我们无法得知是哪个服务引起的,这时就需要快速定位服务故障点,Zipkin很好地解决了这个问题。

  • 相关阅读:
    art.dialog
    Asp.net中web.config配置文件详解
    Web.Config文件配置之限制上传文件大小和时间
    Asp.net中的一个判断session是否合法的做法
    js倒计时
    Asp.net中web.config配置文件详解
    C#调用耗时函数时显示进度条浅探
    ChannelFactory
    NetTcpBinding 类nettcpbinding的属性和方法
    n!的位数 斯特林公式
  • 原文地址:https://www.cnblogs.com/QLCZ/p/15062434.html
Copyright © 2011-2022 走看看