高并发, 大流量:PV量巨大 css
高可用:7*24小时不间断服务html
海量数据:PB级前端
用户分布普遍, 网络状况复杂 算法
安全环境恶劣:大型网站几乎天天都被攻击数据库
需求快速变动, 发布频繁:大型网站每周都有新版本上线浏览器
渐进式发展:大型网站都从小网站发展而来缓存
初始阶段的网站架构安全
只用一台服务器。性能优化
应用服务和数据服务分离服务器
分出了应用, 数据, 文件三台服务器.
应用服务器要处理大量的业务, 因此须要更快更强的CPU.
数据服务器快速磁盘检索和数据缓存, 须要更快的硬盘和大内存
文件服务器用于存储用户的文件, 须要更大的硬盘
使用缓存改善网站性能
大部分业务访问集中在一小部分数据上。
本地缓存:速度快,受应用服务器内存限制
分布式缓存服务器(集群):使用大内存服务器
使用应用服务器集群改善网站的并发处理能力
经过持续增长应用服务器的方式来改善负载压力, 实现系统的可伸缩性。
经过负载均衡调度服务器,将访问请求分发到应用服务器集群的任意一台服务器。
数据库的读写分离
使用缓存后,少部分读和所有写仍是要访问数据库
配置主从数据库. 应用服务器要写数据时, 访问主数据库. 主数据库经过主从复制机制将数据更新同步到从数据库.
使用反向代理和CDN加速网站响应
基本原理都是缓存. 区别在于CDN部署在网络提供商机房中. 而反向代理部署在网站机房中.
若是反向代理服务器缓存着用户请求的资源,则直接返回给用户,下降了服务器的压力。
目的都是为了尽早返回数据给用户。
使用分布式文件系统和分布式数据库系统
一般使用业务分库,将不一样业务的数据部署在不一样的服务器上。
单表规模很是庞大时,才使用分布式数据库。
使用NoSQL和搜索引擎
NoSQL和搜索引擎都是源自互联网的技术手段,对可伸缩的分布式特性具备更好的支持。
应用服务器则经过一个统一数据访问模块访问各类数据,减轻应用程序管理诸多数据源的麻烦。
业务拆分
将整个网站业务拆分红不一样的产品线。
大型购物网站会将首页,商铺,订单,买家,卖家分红不一样的产品线,由不一样的团队负责。
各个应用之间能够经过一个超连接创建关系,也能够经过消息队列进行数据分发。
分布式服务
好比用户管理,商品管理这些业务,能够将共用的业务提取出来,独立部署
应用层:负责具体业务和视图展现,如网站首页,搜索结果展现
服务层:为应用层提供服务支持,如用户管理,购物车
数据层:提供数据存储访问服务
分层架构是逻辑上的,但物理上也可部署在不一样的机器上
分割是在纵向方面对软件进行切分,将不一样的功能和服务分割开来,包装成高内聚低耦合的模块单元,
有助于软件开发和维护,还便于不一样模块的分布式部署,提升网站的并发处理能力和功能扩展能力。
对于大型网站,分层和分割的一个主要目的就是为了切分后的模块便于分布式部署。
分布式可能遇到的问题:
1. 网络延迟的影响
2. 服务器宕机
3. 数据一致性保证
4. 开发维护的问题
应用和服务模块分布式部署,便于业务功能扩展
JS、CSS、LOGO图片等资源独立部署,采用独立域名
分布式部署减轻应用服务器压力
采用独立域名,加大浏览器的并发加载量,让网站更快的呈如今用户面前
单台计算机没法存储海量数据
包括关系数据库的分布式和NoSQL的分布式
Hadoop及其MapReduce分布式计算框架,其特色是移动计算而不是移动数据
分布式环境下实现并发和协同的分布式锁
多台服务器部署相同应用构成一个集群,经过负载均衡设备共同对外提供服务
当某台服务器发生故障,负载均衡设备或者系统的失效转移机制将请求转发到集群中的其余服务器上,提升系统的可用性
缓存就是将数据存放在距离计算最近的位置,以加快处理速度
CDN:内容分发网络,部署在距离用户最近的网络服务商,主要缓存网站的一些静态资源,如视频网站的热点内容
反向代理:部署在网站的前端,无须将请求转发给应用服务器就能返回给用户
本地缓存:在应用服务器中,缓存热点数据,这样就不用访问数据库了
分布式缓存:应用程序经过网络通讯访问缓存数据
缓存的数据应该不能被频繁修改,且不会很快过时
业务之间的消息传递不是同步调用,而是将一个业务操做分红多个阶段,每一个阶段之间经过共享数据的方式异步执行进行协做。
异步架构是典型的生产者消费者模式,二者不存在直接调用,只要保持数据结构不变,彼此功能实现能够随意变化而不互相影响,这对网站扩展新功能很是便利。
异步消息队列能够提升系统可用性、加快网站响应速度,消除并发访问高峰。
要想保证在服务器宕机的状况下网站依然能够继续服务,不丢失数据,就须要必定程度的服务器冗余运行,数据冗余备份,这样当某台服务器宕机时,能够将其上的服务和数据访问转移到其余机器上。
数据库除了按期备份存档保存实现冷备份以外,为了保证在线业务高可用,还须要对数据库进行主从分离,实时同步实现热备份。
在无人值守的状况下,网站能够正常运行,一切均可以自动化是网站的理想状态。目前大型网站的自动化架构设计主要集中在发布运维方面。
①发布部署过程自动化;
②自动化代码管理;
③自动化测试;
④自动化安全监测;
①经过密码和手机校验码进行身份验证;
②对登陆、交易等操做进行加密;
③使用验证码进行识别;
④对于常见的XSS攻击、SQL注入、编码转换等进行防范;
⑤对垃圾或敏感信息进行过滤;
⑥对交易转帐等操做进行风险控制;
性能
浏览器端:浏览器缓存,使用页面压缩,合理布局页面,减小Cookie传输
CDN:将网站静态内容分发至离用户最近的网络服务商机房
反向代理:缓存热点文件,加快请求响应速度,减轻服务器压力
应用服务器端:服务器本地缓存和分布式缓存
异步:将用户请求发送至消息队列等待处理,当前请求直接返回
集群:多台应用服务器组成集群
数据库服务器端:索引,缓存,SQL优化,NoSQL
可用性
冗余:各服务器互相备份保证总体可用;
应用服务器端:经过负载均衡设备创建集群,其中一台宕机当即切换到其余服务器继续提供服务,这就保证了高可用性。
存储服务器端:须要对数据进行实时备份,当某台宕机当即将数据访问请求转换到其余服务器上,并进行数据恢复以保证数据高可用。
伸缩性
伸缩性:经过不断向集群中加入服务器的手段来缓解并发访问的压力和数据存储的需求
(1)衡量标准:
①是否能够多台服务器构建集群?
②是否容易向集群中添加新服务器?
③加入服务器后是否能提供无差异服务?
(2)主要手段:
①应用服务器:使用合适的负载均衡设备
②缓存服务器:改进缓存路由算法保证缓存数据的可访问性
③数据库服务器:经过路由区分等手段将多服务器组成一个集群
扩展性
(1)衡量标准:增长新业务时是否能够实现对现有产品透明无影响
(2)主要手段:
①事件驱动架构:利用消息队列实现;
②分布式服务:将业务和可复用服务分离;
安全性
衡量标准:针对现存和潜在的攻击窃密手段,是否有可靠的应对策略
响应时间:应用执行一个操做须要的时间,包括发出请求到收到最后响应所要的时间。
测试时一般采用重复测试,一个请求操做重复一万次,总响应时间之和再除以一万。
并发数:系统可以同时处理请求的数目,也指同时提交请求的用户数目。
吞吐量:单位时间内系统处理的请求数量。
性能计数器:描述系统性能的一些数据指标。
①性能测试;②负载测试;③压力测试;④稳定性测试;
①性能分析:检查请求处理各个环节的日志,分析哪一个环节响应时间不合理,检查监控数据分析影响性能的因素;
②性能优化:Web前端优化,应用服务器优化,存储服务器优化;
①减小http请求:由于http是无状态的,每次请求的开销都比较昂贵(须要创建通讯链路、进行数据传输,而服务器端对于每一个http请求都须要启动独立的线程去处理);
减小http的主要手段是合并CSS、合并JS、合并图片(利用偏移定位image);
②使用浏览器缓存:设置http头中Cache-Control和Expires属性;
③启用压缩:能够对html、css、js文件启用Gzip压缩,能够达到较高的压缩效率,可是压缩会对服务器及浏览器产生必定的压力;
④CSS放页面最上面,JS放页面最下面:浏览器会在下载彻底部CSS以后才开始对整个页面进行渲染,所以最好将CSS放在页面最上面;
而浏览器在加载JS后会当即执行,有可能会阻塞整个页面,形成页面显示缓慢,所以最好将JS放在页面最下面;
⑤减小Cookie传输:一方面,太大的Cookie会严重影响数据传输;另外一方面,对于某些静态资源的访问(如CSS、JS等)发送Cookie没有意义;
能够考虑静态资源使用独立域名访问,避免请求静态资源时发送Cookie
CDN(内容分发网络)仍然是一个缓存,它将数据缓存在离用户最近的地方,便于用户以最快速度获取数据。即所谓的“网络访问第一跳”。
CDN只将访问频度很高的热点内容(例如:图片、视频、CSS、JS脚本等访问频度很高的内容)进行缓存,能够极大地加快用户访问速度,减小数据中心负载。
反向代理服务器位于网站机房,代理网站Web服务器接收Http请求,对请求进行转发。
反向代理服务器具备如下功能:
①保护网站安全:任何来自Internet的请求都必须先通过代理服务器;
②经过配置缓存功能加速Web请求:减轻真实Web服务器的负载压力;
维基百科及某些博客,会把热门词条,帖子,博客缓存在反向代理服务器上,动态内容变化时,通知反向代理服务器缓存失效,再从新加载冬天内容。
③实现负载均衡:均衡地分发请求,平衡集群中各个服务器的负载压力;
网站性能优化第必定律:优先考虑使用缓存优化性能。
定义:缓存是指将数据存储在相对较高访问速度的存储介质中(如内存),以供系统进行快速处理响应用户请求。
缓存本质是一个内存Hash表,数据以(Key,Value)形式存储在内存中。
缓存主要用来存放那些读写比很高、不多变化的数据,如商品的类目信息、热门商品信息等。这样,应用程序读取数据时,先到缓存中取,如缓存中没有或失效,再到数据库中取出,从新写入缓存以供下一次访问。
所以,能够很好地改善系统性能,提升数据读取速度,下降存储访问压力。
读写比高时,缓存才有意义。热门微博,缓存后可能会被读取百万次。
缓存超过必定时间失效后,要从数据库从新加载,失效前可能会有一段时间数据不一致。好比添加了新的分类,但却没有显示。
缓存预热:新启动的缓存系统没有任何数据,能够在启动时就把热点数据加载好。
缓存穿透:持续高并发地请求某个不存在的数据,会对数据库形成很大的压力。能够将不存在的数据也缓存起来,值为null。
分布式缓存架构:一方面是以以JBoss Cache为表明的互相通讯派;另外一方面是以Memcached为表明的互不通讯派;
JBoss Cache须要将缓存信息同步到集群中的全部机器,代价比较大;而Memcached采用一种集中式的缓存集群管理,缓存与应用分离部署,应用程序经过一致性Hash算法选择缓存服务器远程访问缓存数据,缓存服务器之间互不通讯,于是集群规模能够轻易地扩容,具备良好的伸缩性。
Memcached由两个核心组件组成:服务端(ms)和客户端(mc),在一个memcached的查询中,mc先经过计算key的hash值来肯定kv对所处在的ms位置。当ms肯定后,客户端就会发送一个查询请求给对应的ms,让它来查找确切的数据。由于这之间没有交互以及多播协议,因此 memcached交互带给网络的影响是最小化的。
使用消息队列将调用异步化,可改善网站的扩展性,还可改善网站性能。
用户请求发送给消息队列后当即返回,再由消费者进程从队列中获取数据,异步写入数据库。
消息队列具备削峰的做用->将短期高并发产生的事务消息存储在消息队列中,从而削平高峰期的并发事务。
①在高并发场景下,使用负载均衡技术为一个应用构建多台服务器组成的服务器集群;
②能够避免单一服务器因负载压力过大而响应缓慢,使用户请求具备更好的响应延迟特性;
③负载均衡能够采用硬件设备,也能够采用软件负载。商用硬件负载设备(例如出名的F5)成本一般较高(一台几十万上百万很正常),因此在条件容许的状况下咱们会采用软负载,软负载解决的两个核心问题是:选谁、转发,其中最著名的是LVS(Linux Virtual Server)。
①多线程:使用多线程的缘由:一是IO阻塞,二是多CPU,都是为了最大限度地利用CPU资源,提升系统吞吐能力,改善系统性能;
②资源复用:目的是减小开销很大的系统资源的建立和销毁,主要采用两种模式实现:单例(Singleton)和对象池(Object Pool)。例如,在开发中,常用到的线程池,数据库链接池等,本质上都是对象池。
③数据结构:在不一样场合合理使用恰当的数据结构,能够极大优化程序的性能。
④垃圾回收:理解垃圾回收机制有助于程序优化和参数调优,以及编写内存安全的代码。
机械硬盘:经过马达驱动磁头臂,带动磁头到指定的磁盘位置访问数据。它可以实现快速顺序读写,慢速随机读写。
固态硬盘(又称SSD):无机械装置,数据存储在可持久记忆的硅晶体上,所以能够像内存同样快速随机访问。
在目前的网站应用中,大部分应用访问数据都是随机的,这种状况下SSD具备更好的性能表现,可是性价比有待提高。
传统关系型数据库普遍采用B+树,B+树是对数据排好序后再存储,加快数据检索速度。
目前大多数DB多采用两级索引的B+树,树的层次最多三层。所以可能须要5次磁盘访问才能更新一条记录(三次磁盘访问得到数据索引及行ID,一次数据文件读操做,一次数据文件写操做)
NoSQL(例如:HBase)产品普遍采用LSM树:
具体思想是:将对数据的修改增量保持在内存中,达到指定的大小限制后将这些修改操做批量写入磁盘。不过读取的时候稍微麻烦,须要合并磁盘中历史数据和内存中最近的修改操做,因此写入性能大大提高,读取时可能须要先看是否命中内存,不然须要访问较多的磁盘文件。
LSM树的原理是:把一棵大树拆分红N棵小树,它首先写入内存中,随着小树愈来愈大,内存中的小树会被清除并写入到磁盘中,磁盘中的树按期能够作合并操做,合并成一棵大树,以优化读性能。
LSM树的优点在于:在LSM树上进行一次数据更新不须要磁盘访问,在内存便可完成,速度远快于B+树。