GMTC 大前端时代前端监控的最佳实践

本文来自阿里云前端监控团队,转载请注明出处html

本文为2018年6月21日,在北京举办的GMTC(全球大前端技术大会),下午性能与监控专场,由阿里云前端监控团队前端技术专家彭伟春带来的演讲稿,现场反馈效果很是好,地上都坐了三圈,不少人反馈根本没法挤进去。先上现场照。前端

gmtc现场

正文从这里开始~git

IMAGE

你们下午好,今天我给你们带来的主题是《大前端时代前端监控的最佳实践》github

IMAGE
先作一个自我介绍,我叫彭伟春,英文名是Holden, 阿里花名是六猴, 你们都叫我猴哥。是阿里开源同构框架beidou的做者,目前是阿里云前端系统技术负责人web

IMAGE

今天我分享的内容分红三个部分
* 第一部分是“大前端时代前端监控新的变化”, 讲述这些年来,前端监控一些新的视角以及最前沿的一些思考。
* 第二部分"前端监控的最佳实践", 从使用的角度出发,介绍前端监控系统的各类使用姿式
* 最后是“阿里云ARMS前端监控系统架构”, 简单地剖析下,阿里云前端监控系统是怎么实现的。ajax

IMAGE
IMAGE
先进入咱们第一个环节 大前端时代前端监控新的变化
要了解前端监控新的变化,还得先看看前端这些年发生了哪些变化
* 首先是Gmail的横空出世,开启了SPA的时代
* Backbone/Angular等框架带来了MVVM模式的同时,也把JS从脚本语言提高到了工程语言
* React Native/Weex把移动端开发从Hybrid模式进化到了跨端开发模式
* Node.js问世为前端带来了更多的可能性算法

IMAGE

前端这些年发生了翻天覆地的变化,又会给监控带来什么呢?让咱们思考下如下几个问题
* 传统监控模式可否适用于新的技术?好比PV统计
* SPA模式下首屏如何计算?
* 跨端开发给监控带来什么什么挑战?
* 前端监控的上报模式在Node.js端是否合理?
* 接下来我和你们一块儿探讨其中的一两项chrome

IMAGE
早些年,SPA如此盛行,咱们也在业务中作了尝试,体验是大幅提高了,可业务方却吐槽PV降低了后端

IMAGE
那究竟是什么致使了PV降低了呢?在后端直出时代,咱们每一次的交互,都是向后端请求一个新的页面,PV天然就高,改为SPA模式以后,大量的页面请求变成了页内路由,或者说是页内转场。那如何解呢?这难不倒咱们,大部分框架路由都是基于哈希实现的,咱们只要侦听hash改变,每次改变上报一次PV就行了。也有少许的路由并非基于哈希实现的,好比angular, 这时候就须要轻量级地hack pushState和replaceState浏览器

IMAGE
这样就完美了吗?

IMAGE
咱们再思考下如下几个案例
* 某新闻类的网站,每次看完以后,都会下拉刷新,加载新的内容,这个时候是算一次PV仍是屡次?
* 天猫商品列表页,看完一屏以后,向上滚动会再加载新的一屏,PV该算一次仍是屡次?
* 阿里云邮后台一直开着,每周上百次查看,是算一个PV仍是每次查看都计算一次?
* 未关闭的浏览器tab几小时以后再次浏览,该不应再计一次PV?
* 查找信息时,浏览器Tab之间快速切换,切换过程当中要不要计一次PV?
其实还有不少其它层出不穷的场景,具体该如何去统计PV留给你们去思考, 再也不展开

IMAGE
接下来咱们探讨一个你们最感兴趣的话题: 性能。先看一组咱们的统计数据,淘宝旺铺页面点击率随加载时间变长从85%的点击率逐步下降到了82%,别小看这3%,在阿里这么大的体量下,3%意味着巨大的商业价值,那站在前端监控的角度,首屏是如何统计出来的呢?

IMAGE
回到那个刀耕火种的年代,那时候要什么没什么,都是本身动手丰衣足食。这就是手动打点阶段: 手动打点,分别在页头和首屏dom节点处new Date()打点,计算差值,做为首屏时间,再加上setTimeout(new Date(), 0)标记首屏可交互时间

IMAGE

随着前端的飞速发展,手工打点的模式早已知足不了需求了。为了帮助开发人员更好地衡量和改进web性能,W3C性能小组引入了 Navigation Timing API 帮咱们自动,精准的实现了性能测试的打点问题,大体地过一下,性能API里面包含了【卸载上一个页面】【重定向】【应用缓存】【DNS域名解析】【TCP链接】【请求页面】【响应】【页面处理】最后触发load事件,一般咱们把domContentLoaded做为首屏时间。Chrome最先支持,IE跟进

IMAGE
在很长一段时间里,咱们都享受着performance API带来的便利, 但随着SPA模式的盛行,咱们再回过头来看看W3C标准是否足够了。先来看一个案例,这是阿里云某产品的管理后台。整个加载过程分红三个部分,1. 加载初始的空壳页面 2.加载JS资源并异步请求数据 3. 前端渲染中间的主体部分。按照W3C标准取值首屏时间应该是1106ms, 而实际的首屏在1976ms,也就是完成异步取数据后渲染完页面的时间点。为何会相差如此大呢?实际上SPA的盛行让W3C标准失去了原来的意义

IMAGE
针对这种状况Google lighthouse提出了FMP的概念,first meaning paint, 也就是主要内容可见时间,那什么是主要内容? 每一个人得出的结论可能会不同
IMAGE
先作一个猜测:主要内容 = 页面渲染过中元素增量最大的点
IMAGE
先经过飞猪案例作一次验证
IMAGE
猜测成立
IMAGE
再经过手淘案例作一次验证
IMAGE
猜测不成立
IMAGE
那究竟是什么缘由致使咱们的猜测不成立?

* 首先是元素是否可见, 不可见的元素对用户的影响基本为0
* 其次是每一个元素对页面的影响是否等效?由此引出权重,不一样的元素采用不一样的权重计算影响。阿里云前端监控
IMAGE
根据上面的修正因子。咱们从新设计了一遍算法, 计算每次变化的得分,一块儿来看看,算法是如何实现的?
如图所示分为三个步骤
1. 侦听页面元素的变化
2. 遍历每次新增的元素,并计算这些元素的得分总和
3. 若是元素可见,得分为 1 * weight(权重), 若是元素不可见,得分为0

若是每次都去遍历新增元素并计算是否可见是很是消耗性能的。实际上采用的是深度优先算法,若是子元素可见,那父元素可见,再也不计算。 一样的,若是最后一个元素可见,那前面的兄弟元素也可见。经过深度优先算法,性能有了大幅的提高。

IMAGE
再拿以前的手淘案例来验证一遍。


通过改良以后,第三屏主要内容的得分是最高的,符合预期。

IMAGE

那么接下来首屏统计又会发生什么样的变化呢?其实统计首屏时间自己就是浏览器的职责,交由浏览器来处理是最好的。目前W3C关于首屏统计已经进入了提议阶段,坐等W3C再次标准化。你们能够在github上看到最新进

限于篇幅,前端监控其它新的变化再也不展开。讲了这么多前端监控的新变化,那什么才是打开前端监控最最正确地姿式呢?

IMAGE
由此进入咱们的第二个环节,“前端监控的最佳实践”
IMAGE

我用一个表达式“要是什么什么就行了”来总结。我常常会想【要是天上能掉钱就行了】,【要是有个机器人帮我写代码就行了】。一样的,每次发版以后都是提心吊胆的,不知道用户到底能不能正常使用。(这时候你就会想)要是能有双眼睛帮我盯着系统就行了;每次出错,都是用户投诉反馈问题,实际等到用户主动反馈问题,影响面已经很是大了: (这时候你就会想)要是能在第一时间发现错误就行了;

IMAGE

还真有这样的案例,前年双十一凌晨值班,忽然收到邮件和短信告警,因而点开了详情

IMAGE
发如今接口成功率趋势图中,接口请求量大幅上升,伴随着成功率急剧降低,再查看错误信息聚合模块,发现频率最高的错误信息是【交易规则冲突】,深度排查以后,最终找出了缘由,是运营配置的双十一优惠规则和平时优惠规则产生了冲突,致使下单失败。最后凌晨4点申请了紧急发布修复了冲突,解除告警。

IMAGE

由此能够得出最佳实践之一:主动监控。固然主动监控的内容不只局限于API成功率,也包括JS错误率等。稍微总结下流程:先是配置告警规则; 而后就能够放心大胆地睡觉了,若有任何风吹草动,系统立刻会通知到咱们,再经过错误聚类模块,精准地定位问题。再手起刀落,bug修复完成。

IMAGE

再回到咱们的【要是什么什么就行了】,在作性能优化的时候,有时候明明总体性能已经不错了,可恰恰有少许用户以为很慢:(这时候你就会想)要是能知道慢速用户发生了什么就行了

IMAGE
这时候咱们就须要用到【性能样本分布】,打开页面性能页面,查看0 -60秒之间每一个区间的性能样本分布状况,从分布图中能够看出来大部分用户加载时间都在2秒之内,极少数部分用户的页面时间在10秒左右的
拖动下面的滑块,缩小时间范围到10S左右,这时候系统就会筛选出10秒左右的慢会话

IMAGE
点击展开某次慢会话,不只能够看到此次慢会话的基本信息,好比网络类型等,还能够看到完整的资源加载瀑布图,能够清晰地看出来,具体是什么资源致使整个会话变慢。由此咱们又能够得出最佳实践之二:慢会话追踪

IMAGE

再回到咱们的【要是什么什么就行了】,有时候用户提交了一条反馈,某某功能出错用不了,这时候你又不知道用户端到底报了什么错,是否是又得打电话给用户,还得手把手教用户如何经过浏览器开发者工具把错误截图下来发你。我哩个去,用户这个时候极可能由于系统太烂了,已经不堪其辱,早就把页面关了而且发誓不再用这破系统。(这时候你就会想)要是能知道用户报了什么错就行了

IMAGE
别怕,打开阿里云前端监控的【访问明细】搜索用户ID,直接能够看到该用户在访问过程当中,到底报了什么错。

IMAGE
有时候拿到了用户报错时的基本信息,也知道用户报了什么错,可是在本身电脑上调试的时候,不管如何也复现不了,这个时候是否是又得去和用户沟通,让用户描述重现路径,实际上用户可能本身都忘了具体怎么作才能重现错误。(这时候咱们就会想)要是能重现用户行为就行了。

IMAGE
【视频演示】咱们现场来模拟一次用户出错还原,左边是用户实际操做的屏幕,为了更好地展现效果,我把用户行为实时地展现在右边的屏幕上
* 第一步: 模拟用户在淘宝页面上作出了一系列的操做, 鼠标移动、滚动页面,搜索等
* 第二步:假设忽然出现了某某错误,这时系统会把记录的用户行为存储到服务端
* 第三步: 开发人员经过会话ID查询到出错行为,最终进行还原。你们能够看到左边屏幕再也不操做,右边屏幕还原出了以前出错的全部行为。

IMAGE
你们必定在想这么炫酷的能力是如何实现的呢?接下来就为你们揭秘阿里云前端监控系统背后的技术架构。

IMAGE
就从你们最感兴趣的错误还原讲起,你们可能在猜想,是否是把整个页面录制成视频了。其实不是这样的,视频太大了,不可能出错了把一个视频发到服务端,这样是对用户资源的严重浪费。先看示意图(跟着箭头从左到右)
* 首先,每一次会话都有一个惟一的session ID,这是串联起全部行为的纽带。
* 其次,用户行为又分红两个部分,其一是用户的操做,好比鼠标滑动,点击,页面滚动等,其二是页面的变化。这二者咱们都统称为用户行为,记录在同一个队列中。
* 一开始的时候,系统会记录下初始的页面做为第一帧,这是惟一的一次完整页面记录。
* 针对用户操做,咱们会记录事件的类型,鼠标位置等关键信息,保存到队列中。
* 针对页面变更,咱们会起一个mutationObserve侦听页面的改动,每次只记录改动的部分,保存到队列中。
* 不管是事件仍是页面改动,都是对等的一帧,每一帧都会有当前时间,与上一帧间隔时间等基本信息用户还原。
* 一旦出错,SDK就把队列发送到监控系统,并清空当前队列。
* 还原端根据记录的行为队列,根据时间逐一播放出来。最终造成一个相似于视频的效果。

IMAGE
你们可能以为还不过瘾,接下来为你们讲一下阿里云ARMS前端监控系统的总体架构。
首先从左到右分红三个域。分别是日志采集域,日志分析域和监控告警域。在日志采集域,客户端经过SDK将信息上报到Nginx服务器, 日志服务SLS在Nginx服务器上起一个agent,去把日志信息同步过去,日志到了SLS就至关于到了一个大的蓄水池。再经过实时计算引擎的计算,结果部分存储到HBase,另外一部分结果回存到SLS日志服务用于搜索。
最终经过restful API向前端提供数据,前端渲染出数据dashboard.
是否是感受很简单地样子,有句话叫作【看山跑死马】,山看起来就在眼前, 可就算骑马过去马都会累死。那就让咱们一块儿来揭开它的神秘面纱吧。

IMAGE
接下来重点介绍跟前端同窗工做密切相关的日志采集域,相比业界,咱们的日志采集仍是有不少可圈可点之处的。好比说:
* 静默采集: 只须要一行代码接入SDK就好了,全部的API请求、资源加载、JS错误、性能等都自动监控起来了。省去了繁琐的配置。
* 单元测试 + 自动化测试:前端监控的目的就是去监控前端的异常状况,不给页面带来新的异常这是咱们的底线,对此,咱们有完善的单元测试和自动化测试去保障SDK自己的质量。
* (SDK出错隔离):但实际上任何系统都不能保证本身不会出错,那么万一SDK自己报错了,咱们还有异常隔离机制,确保出错也不会影响业务的运行。

IMAGE
这些内容我都不详细展开,那接下来我重点讲一下,阿里云前端监控是如何突破局限优雅地上报日志
你们都知道,http徵求意見稿rfc2616规定浏览器对于一个域名,同时只能有 2 个链接。而PV、UV、ajax请求、JS逻辑错误、页面资源加载等等都会触发上报,同时2个链接明显不够用,可能会形成网络阻塞,上报延迟
后来在修正稿rfc7230中去掉了这个限制, 只规定了限制数量,但并未指定具体数字,浏览器也实际放宽了限制。好比Chrome是同时6个链接。
然而,一个请求独占一个链接,有时候6个链接也是不够用的
你们可能会想, 那既然规范都没有指定要限制多少条,那浏览器为何还要限制6条呢?其实也是出于公平和安全考虑,若是不限制数量,理论上一个客户端就能占用大量服务器资源,甚至压垮服务器。

IMAGE

那如何突破限制呢?有一个绝招:就是升级到http2, 利用h2的多路复用特性
一个链接上打开多个流,还能够双向数据传输,轻松突破6路并行限制。
* 思考一下:在http1时代的把资源散列在不一样域名下还有效吗?实际上非但不能提高性能,反而会新增链接开销。

IMAGE
突破6路限制就够了吗?咱们再来看看另外一个很容易被忽略的部分:http头部损耗。
* http请求中,每次请求都会包含一系列的请求头来描述请求的资源和特性等。而头部没通过任何压缩,每次请求都要占用200-800个字节,若是带上一个比较大的cookie,甚至会超过1K,
* 而咱们实际的日志数据大小仅仅只有10 - 50字节,头部消耗占了90%以上
* 另外,据Htpp Archive统计数据,平均每一个页面上百个请求,愈来愈多的流量消耗在头部
* 最致命的是,UserAgent等信息不会频繁变更,每次请求都传输是一种严重的浪费。

IMAGE
再次利用h2头部压缩。先来看看采用h1和h2的效果对比。
h1下请求大小295 字节, 而h2仅仅只有18 字节,大小只有区区16分之一,请求时间也从6ms下降到了4毫秒。

IMAGE
太神奇了,来快速地过一下http2头部压缩是如何实现的:
* 首先协议里预设了一个静态字典,用来表示经常使用的头部字段,好比图中,2就是 method get. 之前须要把完整的key-value对发过去,如今只须要把一个数字发过去,大小大幅缩小。
* 其次,客户端和服务端会共同维护一个动态表,动态表用来干啥呢?举个例子,好比useragent, 每一个用户的useragent值是不同的,无法放到静态表中去约定。可是对于同一个用户会话,useragent是不会改变,这样的值,就由客户端和服务端协商决定存入动态表,这样第一次传输过去以后,之后就只须要传入动态表中的一个编码就好了,图中的62和63就是这样的状况。链接中发送的请求越多,就越能丰富动态表中的值,越到后面,请求性能越好(佐证了域名散列的方式不可取)
* 还有一类状况,值老是变来变去,也无法保存到动态表中。这时候,只能直接压缩了。在h2中采用的是Huffman压缩算法,能把数字或字符最短压缩到5个字节,最大压缩率是37.5%

IMAGE
其实除了头部压缩外,还有不少办法减小体积,好比
* 采用http 204返回无响应体的response
* 采用post请求合并多条日志,共用请求头
* 错误调用堆栈中常常会出现不少的文件url,占了很多空间,能够考虑将他们抽取成一个变量
时间关系,日志采集部分就到此为止。

IMAGE
接下来咱们来看看一个监控系统最核心的部分:实时计算。
实时计算采用的是业界已经很是成熟的流计算,简单地过一下概念。
这是一张表示流计算的经典结构图,有两种组件,水龙头是spout,表明数据源, 闪电是bolt, 表明处理逻辑。这里面有两个很重要的特征。
* 其一是计算能力弹性,若是有更大的日志量流入,可以动态调度更多的算力来保障计算的实时性
* 其二是反压。每一个计算节点均可以根据本身的负载状况反压上一级的计算节点,从而实现计算任务的更合理地分配。

IMAGE
思考一下:如何在海量日志中实时取到限定条件的聚合数据?如图所示,我想实时拿到【模拟页面】在【广东省】【最近24小时】【访问速度】走势
分析一下,若是须要画出这样的走势图,每一个小时画一个点,须要取24个点的值,每一个节点写个SQL把符合条件的数据求平均,
若是数据量很小的时候,取24次数据勉强性能上勉强能够忍受。
可是若是做为一个SASS系统,监控系统会接入很是多的项目,每时每刻都有大量的数据上报。系统也会积累海量的数据。取一个节点须要多少时间呢?参考离线计算大概要15分钟, 24个节点,预估须要6个小时。这明显是不可接受的。那阿里云前端监控是如何作到实时拿数据的呢?

IMAGE
这就须要用到咱们的大数据处理神器dataCube(数据立方),咱们来剖析下数据立方是如何解决实时性的问题的。
如图所示: 拿浏览器、设备、地理区域三个维度为例,组成一个三维的数据立方。立方中的每一个小格子表明一个聚合数据。
请看图中数字3所在的格子,3表明三维,也就是Vivo设备、chrome浏览器在北京地区的聚合量
再看一个黄色切面上的数字2,黄色切面表明浏览器维度的聚合,也就是上海地区Vivo设备的聚合量,包括全部的浏览器。
再看最右下角的数字0表明0维,也就是全部的聚合量,包括全部的浏览器、全部的设备、全部的地区。
数据立方的秘密就是把全部格子的值都预先计算出来,下次要取值,直接取数据立方的某个值就行了,本质上是一种空间换时间的思路。

IMAGE
看一个咱们实际的处理场景,元数据通过流计算以后,每分钟、每小时、天天都会产生一个数据立方。而这个数据立方多达90多维。回到以前的案例,若是我想限定若干个条件拿到24小时趋势图,我只须要24个数据立方中把指定位置的小格子取出来就好了。计算时间就能大幅压缩到秒级别。
【思考案例】数据立方本质上是把全部可能的组合提早算出结果,结果数量是一个笛卡尔积,若是某个维度的值很是多(好比淘宝商品详情url中product id不断变化, 致使url的值就有上千万个), 直接致使维度爆炸, 该如何解?

IMAGE
因为时间限制,今天的主题就到此为止。有兴趣的同窗能够加咱们的技术交流群,谢谢你们。

本文来自阿里云前端监控团队,转载请注明出处

相关文章
相关标签/搜索