数据保存在内存mysql
数据保存在文件程序员
数据保存在数据库面试
结构化查询语言(Structured Query Language)简称SQL,是一种数据库查询语言(12800字!SQL 语法速成手册)。redis
做用:用于存取数据、查询、更新和管理关系数据库系统。算法
MySQL是一个关系型数据库管理系统,由瑞典MySQL) AB 公司开发,属于 Oracle 旗下产品。MySQL 是最流行的关系型数据库管理系统之一,在 WEB 应用方面,MySQL是最好的 RDBMS (Relational Database Management System,关系数据库管理系统) 应用软件之一。在Java企业级开发中很是经常使用,由于 MySQL 是开源免费的,而且方便扩展。sql
在设计数据库结构的时候,要尽可能遵照三范式,若是不遵照,必须有足够的理由。好比性能。事实上咱们常常会为了性能而妥协数据库的设计。数据库
MySQL服务器经过权限表来控制用户对数据库的访问,权限表存放在mysql数据库里,由mysql_install_db
脚本初始化。这些权限表分别user,db,table_priv,columns_priv和host
。下面分别介绍一下这些表的结构和内容:编程
user权限表:记录容许链接到服务器的用户账号信息,里面的权限是全局级的。
db权限表:记录各个账号在各个数据库上的操做权限。
table_priv权限表:记录数据表级的操做权限。
columns_priv权限表:记录数据列级的操做权限。
host权限表:配合db权限表对给定主机上数据库级操做权限做更细致的控制。这个权限表不受GRANT和REVOKE语句的影响。后端
有三种格式,statement,row和mixed
。ROW 仍是 STATEMENT?线上 MySQL Binlog 怎么选?数组
此外,新版的MySQL中对row级别也作了一些优化,当表结构发生变化的时候,会记录语句而不是逐行记录。赞!7000 字学习笔记,MySQL 从入门到放弃
整数类型
实数类型
字符串类型
枚举类型(ENUM),把不重复的数据存储为一个预约义的集合。
日期和时间类型,尽可能使用timestamp,空间效率高于datetime,
存储引擎Storage engine:MySQL中的数据、索引以及其余对象是如何存储的,是一套文件系统的实现。
若是没有特别的需求,使用默认的Innodb便可。
MyISAM:以读写插入为主的应用程序,好比博客系统、新闻门户网站。
Innodb:更新(删除)操做频率也高,或者要保证数据的完整性;并发量高,支持事务和外键。好比OA自动化办公系统。
索引是一种特殊的文件(InnoDB数据表上的索引是表空间的一个组成部分),它们包含着对数据表里全部记录的引用指针。
索引是一种数据结构。数据库索引,是数据库管理系统中一个排序的数据结构,以协助快速查询、更新数据库表中数据。索引的实现一般使用B树及其变种B+树。
更通俗的说,索引就至关于目录。为了方便查找书中的内容,经过对内容创建索引造成目录。索引是一个文件,它是要占据物理空间的。
索引的优势
索引的缺点
上图中,根据id查询记录,由于id字段仅创建了主键索引,所以此SQL执行可选的索引只有主键索引,若是有多个,最终会选一个较优的做为检索的依据。
-- 增长一个没有创建索引的字段 alter table innodb1 add sex char(1); -- 按sex检索时可选的索引为null EXPLAIN SELECT * from innodb1 where sex='男';
能够尝试在一个字段未创建索引时,根据该字段查询的效率,而后对该字段创建索引(alter table 表名 add index(字段名)),一样的SQL执行的效率,你会发现查询效率会有明显的提高(数据量越大越明显)。
当咱们使用order by将查询结果按照某个字段排序时,若是该字段没有创建索引,那么执行计划会将查询出的全部数据使用外部排序(将数据从硬盘分批读取到内存使用内部排序,最后合并排序结果),这个操做是很影响性能的,由于须要将查询涉及到的全部数据从磁盘中读到内存(若是单条数据过大或者数据量过多都会下降效率),更不管读到内存以后的排序了。
可是若是咱们对该字段创建索引alter table 表名 add index(字段名),那么因为索引自己是有序的,所以直接按照索引的顺序和映射关系逐条取出数据便可。并且若是分页的,那么只用取出索引表某个范围内的索引对应的数据,而不用像上述那取出全部数据进行排序再返回某个范围内的数据。(从磁盘取数据是最影响性能的)
对join语句匹配关系(on)涉及的字段创建索引可以提升效率
若是要查询的字段都创建过索引,那么引擎会直接在索引表中查询而不会访问原始数据(不然只要有一个字段没有创建索引就会作全表扫描),这叫索引覆盖。所以咱们须要尽量的在select后只写必要的查询字段,以增长索引覆盖的概率。
这里值得注意的是不要想着为每一个字段创建索引,由于优先使用索引的优点就在于其体积小。
惟一索引: 数据列不容许重复,容许为NULL值,一个表容许多个列建立惟一索引。
能够经过 ALTER TABLE table_name ADD UNIQUE (column); 建立惟一索引 能够经过 ALTER TABLE table_name ADD UNIQUE (column1,column2); 建立惟一组合索引
普通索引: 基本的索引类型,没有惟一性的限制,容许为NULL值。
能够经过ALTER TABLE table_name ADD INDEX index_name (column);建立普通索引 能够经过ALTER TABLE table_name ADD INDEX index_name(column1, column2, column3);建立组合索引
全文索引: 是目前搜索引擎使用的一种关键技术。
能够经过ALTER TABLE table_name ADD FULLTEXT (column);建立全文索引
索引的数据结构和具体存储引擎的实现有关,在MySQL中使用较多的索引有Hash索引,B+树索引等,而咱们常用的InnoDB存储引擎的默认索引实现为:B+树索引。对于哈希索引来讲,底层的数据结构就是哈希表,所以在绝大多数需求为单条记录查询的时候,能够选择哈希索引,查询性能最快;其他大部分场景,建议选择BTree索引。
mysql经过存储引擎取数据,基本上90%的人用的就是InnoDB了,按照实现方式分,InnoDB的索引类型目前只有两种:BTREE(B树)索引和HASH索引。B树索引是Mysql数据库中使用最频繁的索引类型,基本全部存储引擎都支持BTree索引。一般咱们说的索引不出意外指的就是(B树)索引(实际是用B+树实现的,由于在查看表索引时,mysql一概打印BTREE,因此简称为B树索引)
查询方式:
B+tree性质:
简要说下,相似于数据结构中简单实现的HASH表(散列表)同样,当咱们在mysql中用哈希索引时,主要就是经过Hash算法(常见的Hash算法有直接定址法、平方取中法、折叠法、除数取余法、随机数法),将数据库字段数据转换成定长的Hash值,与这条数据的行指针一并存入Hash表的对应位置;若是发生Hash碰撞(两个不一样关键字的Hash值相同),则在对应Hash键下以链表形式存储。固然这只是简略模拟图。
索引用来快速地寻找那些具备特定值的记录。若是没有索引,通常来讲执行查询时遍历整张表。
索引的原理很简单,就是把无序的数据变成有序的查询
索引算法有BTree算法和Hash算法
。
BTree是最经常使用的mysql数据库索引算法,也是mysql默认的算法。由于它不只能够被用在=,>,>=,<,<=和between这些比较操做符上,并且还能够用于like操做符,只要它的查询条件是一个不以通配符开头的常量, 例如:
-- 只要它的查询条件是一个不以通配符开头的常量 select * from user where name like 'jack%'; -- 若是一通配符开头,或者没有使用常量,则不会使用索引,例如: select * from user where name like '%jack';
Hash Hash索引只能用于对等比较,例如=,<=>(至关于=)操做符。因为是一次定位数据,不像BTree索引须要从根节点到枝节点,最后才能访问到页节点这样屡次IO访问,因此检索效率远高于BTree索引。
索引虽好,但也不是无限制的使用,最好符合一下几个原则
第一种方式:在执行CREATE TABLE时建立索引
CREATE TABLE user_index2 ( id INT auto_increment PRIMARY KEY, first_name VARCHAR (16), last_name VARCHAR (16), id_card VARCHAR (18), information text, KEY name (first_name, last_name), FULLTEXT KEY (information), UNIQUE KEY (id_card) );
第二种方式:使用ALTER TABLE命令去增长索引
ALTER TABLE table_name ADD INDEX index_name (column_list);
第三种方式:使用CREATE INDEX命令建立
CREATE INDEX index_name ON table_name (column_list);
CREATE INDEX可对表增长普通索引或UNIQUE索引。(可是,不能建立PRIMARY KEY索引)
根据索引名删除普通索引、惟一索引、全文索引:alter table 表名 drop KEY 索引名
alter table user_index drop KEY name; alter table user_index drop KEY id_card; alter table user_index drop KEY information;
删除主键索引:alter table 表名 drop primary key(由于主键只有一个)。这里值得注意的是,若是主键自增加,那么不能直接执行此操做(自增加依赖于主键索引):
须要取消自增加再行删除:
alter table user_index -- 从新定义字段 MODIFY id int, drop PRIMARY KEY
但一般不会删除主键,由于设计主键必定与业务逻辑无关。
一般,经过索引查询数据比全表扫描要快。可是咱们也必须注意到它的代价。
关于索引:因为索引须要额外的维护成本,由于索引文件是单独存在的文件,因此当咱们对数据的增长,修改,删除,都会产生额外的对索引文件的操做,这些操做须要消耗额外的IO,会下降增/改/删的执行效率。因此,在咱们删除数据库百万级别数据的时候,查询MySQL官方手册得知删除数据的速度和建立的索引数量是成正比的。
语法:index(field(10)),使用字段值的前10个字符创建索引,默认是使用字段的所有内容创建索引。
前提:前缀的标识度高。好比密码就适合创建前缀索引,由于密码几乎各不相同。
实操的难度:在于前缀截取的长度。
咱们能够利用select count(*)/count(distinct left(password,prefixLen));
,经过从调整prefixLen的值(从1自增)查看不一样前缀长度的一个平均匹配度,接近1时就能够了(表示一个密码的前prefixLen个字符几乎能肯定惟一一条记录)
在B树中,你能够将键和值存放在内部节点和叶子节点;但在B+树中,内部节点都是键,没有值,叶子节点同时存放键和值。
B+树的叶子节点有一条链相连,而B树的叶子节点各自独立。
B树能够在内部节点同时存储键和值,所以,把频繁访问的数据放在靠近根节点的地方将会大大提升热点数据的查询效率。这种特性使得B树在特定数据重复屡次查询的场景中更加高效。
因为B+树的内部节点只存放键,不存放值,所以,一次读取,能够在内存页中获取更多的键,有利于更快地缩小查找范围。 B+树的叶节点由一条链相连,所以,当须要进行一次全数据遍历的时候,B+树只须要使用O(logN)时间找到最小的一个节点,而后经过链进行O(N)的顺序遍历便可。而B树则须要对树的每一层进行遍历,这会须要更多的内存置换次数,所以也就须要花费更多的时间
首先要知道Hash索引和B+树索引的底层实现原理:
hash索引底层就是hash表,进行查找时,调用一次hash函数就能够获取到相应的键值,以后进行回表查询得到实际数据。B+树底层实现是多路平衡查找树。对于每一次的查询都是从根节点出发,查找到叶子节点方能够得到所查键值,而后根据查询判断是否须要回表查询数据。
那么能够看出他们有如下的不一样:
由于在hash索引中通过hash函数创建索引以后,索引的顺序与原顺序没法保持一致,不能支持范围查询。而B+树的的全部节点皆遵循(左节点小于父节点,右节点大于父节点,多叉树也相似),自然支持范围。
hash索引不支持使用索引进行排序,原理同上。
所以,在大多数状况下,直接选择B+树索引能够得到稳定且较好的查询速度。而不须要使用hash索引。
在B+树的索引中,叶子节点可能存储了当前的key值,也可能存储了当前的key值以及整行的数据,这就是聚簇索引和非聚簇索引。 在InnoDB中,只有主键索引是聚簇索引,若是没有主键,则挑选一个惟一键创建聚簇索引。若是没有惟一键,则隐式的生成一个键来创建聚簇索引。
当查询使用聚簇索引时,在对应的叶子节点,能够获取到整行数据,所以不用再次进行回表查询。
澄清一个概念:innodb中,在聚簇索引之上建立的索引称之为辅助索引,辅助索引访问数据老是须要二次查找,非聚簇索引都是辅助索引,像复合索引、前缀索引、惟一索引,辅助索引叶子节点存储的再也不是行的物理位置,而是主键值
什么时候使用聚簇索引与非聚簇索引
不必定,这涉及到查询语句所要求的字段是否所有命中了索引,若是所有命中了索引,那么就没必要再进行回表查询。
举个简单的例子,假设咱们在员工表的年龄上创建了索引,那么当进行select age from employee where age < 20的查询时,在索引的叶子节点上,已经包含了age信息,不会再次进行回表查询。
MySQL能够使用多个字段同时创建一个索引,叫作联合索引。在联合索引中,若是想要命中索引,须要按照创建索引时的字段顺序挨个使用,不然没法命中索引。
具体缘由为:
MySQL使用索引时须要索引有序,假设如今创建了"name,age,school"的联合索引,那么索引的排序为: 先按照name排序,若是name相同,则按照age排序,若是age的值也相等,则按照school进行排序。
当进行查询时,此时索引仅仅按照name严格有序,所以必须首先使用name字段进行等值查询,以后对于匹配到的列而言,其按照age字段严格有序,此时能够使用age字段用作索引查找,以此类推。所以在创建联合索引的时候应该注意索引列的顺序,通常状况下,将查询需求频繁或者字段选择性高的列放在前面。此外能够根据特例的查询或者表结构进行单独的调整。
事务是一个不可分割的数据库操做序列,也是数据库并发控制的基本单位,其执行的结果必须使数据库从一种一致性状态变到另外一种一致性状态。事务是逻辑上的一组操做,要么都执行,要么都不执行。
事务最经典也常常被拿出来讲例子就是转帐了。
假如小明要给小红转帐1000元,这个转帐会涉及到两个关键操做就是:将小明的余额减小1000元,将小红的余额增长1000元。万一在这两个操做之间忽然出现错误好比银行系统崩溃,致使小明余额减小而小红的余额没有增长,这样就不对了。事务就是保证这两个关键操做要么都成功,要么都要失败。
关系性数据库须要遵循ACID规则,具体内容以下:
脏读(Drity Read):某个事务已更新一份数据,另外一个事务在此时读取了同一份数据,因为某些缘由,前一个RollBack了操做,则后一个事务所读取的数据就会是不正确的。
不可重复读(Non-repeatable read):在一个事务的两次查询之中数据不一致,这多是两次查询过程当中间插入了一个事务更新的原有的数据。
幻读(Phantom Read):在一个事务的两次查询中数据笔数不一致,例若有一个事务查询了几列(Row)数据,而另外一个事务却在此时插入了新的几列数据,先前的事务在接下来的查询中,就会发现有几列数据是它先前所没有的。
为了达到事务的四大特性,数据库定义了4种不一样的事务隔离级别,由低到高依次为Read uncommitted、Read committed、Repeatable read、Serializable,这四个级别能够逐个解决脏读、不可重复读、幻读这几类问题。
SQL 标准定义了四个隔离级别:
这里须要注意的是:Mysql 默认采用的 REPEATABLE_READ隔离级别 Oracle 默认采用的 READ_COMMITTED隔离级别
事务隔离机制的实现基于锁机制和并发调度。其中并发调度使用的是MVVC(多版本并发控制),经过保存修改的旧版本信息来支持并发一致性读和回滚等特性。
由于隔离级别越低,事务请求的锁越少,因此大部分数据库系统的隔离级别都是READ-COMMITTED(读取提交内容):,可是你要知道的是InnoDB 存储引擎默认使用 REPEATABLE-READ(可重读)并不会有任何性能损失。
InnoDB 存储引擎在 分布式事务 的状况下通常会用到SERIALIZABLE(可串行化)隔离级别。
当数据库有并发事务的时候,可能会产生数据的不一致,这时候须要一些机制来保证访问的次序,锁机制就是这样的一个机制。
就像酒店的房间,若是你们随意进出,就会出现多人抢夺同一个房间的状况,而在房间上装上锁,申请到钥匙的人才能够入住而且将房间锁起来,其余人只有等他使用完毕才能够再次使用。
在Read Uncommitted级别下,读取数据不须要加共享锁,这样就不会跟被修改的数据上的排他锁冲突
在Read Committed级别下,读操做须要加共享锁,可是在语句执行完之后释放共享锁;
在Repeatable Read级别下,读操做须要加共享锁,可是在事务提交以前并不释放共享锁,也就是必须等待事务执行完毕之后才释放共享锁。
SERIALIZABLE 是限制性最强的隔离级别,由于该级别锁定整个范围的键,并一直持有锁,直到事务完成。
在关系型数据库中,能够按照锁的粒度把数据库锁分为行级锁(INNODB引擎)、表级锁(MYISAM引擎)和页级锁(BDB引擎 )。
行级锁,表级锁和页级锁对比
行级锁是Mysql中锁定粒度最细的一种锁,表示只针对当前操做的行进行加锁。行级锁能大大减小数据库操做的冲突。其加锁粒度最小,但加锁的开销也最大。行级锁分为共享锁 和 排他锁。
特色:开销大,加锁慢;会出现死锁;锁定粒度最小,发生锁冲突的几率最低,并发度也最高。
表级锁是MySQL中锁定粒度最大的一种锁,表示对当前操做的整张表加锁,它实现简单,资源消耗较少,被大部分MySQL引擎支持。最常使用的MYISAM与INNODB都支持表级锁定。表级锁定分为表共享读锁(共享锁)与表独占写锁(排他锁)。
特色:开销小,加锁快;不会出现死锁;锁定粒度大,发出锁冲突的几率最高,并发度最低。
页级锁是MySQL中锁定粒度介于行级锁和表级锁中间的一种锁。表级锁速度快,但冲突多,行级冲突少,但速度慢。因此取了折衷的页级,一次锁定相邻的一组记录。
特色:开销和加锁时间界于表锁和行锁之间;会出现死锁;锁定粒度界于表锁和行锁之间,并发度通常
从锁的类别上来说,有共享锁和排他锁。
共享锁: 又叫作读锁。 当用户要进行数据的读取时,对数据加上共享锁。共享锁能够同时加上多个。
排他锁: 又叫作写锁。 当用户要进行数据的写入时,对数据加上排他锁。排他锁只能够加一个,他和其余的排他锁,共享锁都相斥。
用上面的例子来讲就是用户的行为有两种,一种是来看房,多个用户一块儿看房是能够接受的。 一种是真正的入住一晚,在这期间,不管是想入住的仍是想看房的都不能够。
锁的粒度取决于具体的存储引擎,InnoDB实现了行级锁,页级锁,表级锁。
他们的加锁开销从大到小,并发能力也是从大到小。
答:InnoDB是基于索引来完成行锁
例: select * from tab_with_index where id = 1 for update;
for update 能够根据条件来完成行锁锁定,而且 id 是有索引键的列,若是 id 不是索引键那么InnoDB将完成表锁,并发将无从谈起
死锁是指两个或多个事务在同一资源上相互占用,并请求锁定对方的资源,从而致使恶性循环的现象。
常见的解决死锁的方法
若是业务处理很差能够用分布式事务锁或者使用乐观锁
数据库管理系统(DBMS)中的并发控制的任务是确保在多个事务同时存取数据库中同一数据时不破坏事务的隔离性和统一性以及数据库的统一性。乐观并发控制(乐观锁)和悲观并发控制(悲观锁)是并发控制主要采用的技术手段。
悲观锁:假定会发生并发冲突,屏蔽一切可能违反数据完整性的操做。在查询完数据的时候就把事务锁起来,直到提交事务。实现方式:使用数据库中的锁机制
乐观锁:假设不会发生并发冲突,只在提交操做时检查是否违反数据完整性。在修改数据的时候把事务锁起来,经过version的方式来进行锁定。实现方式:乐通常会使用版本号机制或CAS算法实现。
从上面对两种锁的介绍,咱们知道两种锁各有优缺点,不可认为一种好于另外一种,像乐观锁适用于写比较少的状况下(多读场景),即冲突真的不多发生的时候,这样能够省去了锁的开销,加大了系统的整个吞吐量。
但若是是多写的状况,通常会常常产生冲突,这就会致使上层应用会不断的进行retry,这样反却是下降了性能,因此通常多写的场景下用悲观锁就比较合适。
为了提升复杂SQL语句的复用性和表操做的安全性,MySQL数据库管理系统提供了视图特性。所谓视图,本质上是一种虚拟表,在物理上是不存在的,其内容与真实的表类似,包含一系列带有名称的列和行数据。可是,视图并不在数据库中以储存的数据值形式存在。行和列数据来自定义视图的查询所引用基本表,而且在具体引用视图时动态生成。
视图使开发者只关心感兴趣的某些特定数据和所负责的特定任务,只能看到视图中所定义的数据,而不是视图所引用表中的数据,从而提升了数据库中数据的安全性。
视图的特色以下:
视图的操做包括建立视图,查看视图,删除视图和修改视图。
视图根本用途:简化sql查询,提升开发效率。若是说还有另一个用途那就是兼容老的表结构。
下面是视图的常见使用场景:
性能。数据库必须把视图的查询转化成对基本表的查询,若是这个视图是由一个复杂的多表查询所定义,那么,即便是视图的一个简单查询,数据库也把它变成一个复杂的结合体,须要花费必定的时间。
修改限制。当用户试图修改视图的某些行时,数据库必须把它转化为对基本表的某些行的修改。事实上,当从视图中插入或者删除时,状况也是这样。对于简单视图来讲,这是很方便的,可是,对于比较复杂的视图,多是不可修改的
这些视图有以下特征:1.有UNIQUE等集合操做符的视图。2.有GROUP BY子句的视图。3.有诸如AVG\SUM\MAX等聚合函数的视图。 4.使用DISTINCT关键字的视图。5.链接表的视图(其中有些例外)
游标是系统为用户开设的一个数据缓冲区,存放SQL语句的执行结果,每一个游标区都有一个名字。用户能够经过游标逐一获取记录并赋给主变量,交由主语言进一步处理。
存储过程是一个预编译的SQL语句,优势是容许模块化的设计,就是说只须要建立一次,之后在该程序中就能够调用屡次。若是某次操做须要执行屡次SQL,使用存储过程比单纯SQL语句执行要快。
优势
缺点
触发器是用户定义在关系表上的一类由事件驱动的特殊的存储过程。触发器是指一段代码,当触发某个事件时,自动执行这些代码。
注意不要滥用,不然会形成数据库及应用程序的维护困难。
你们须要牢记以上基础知识点,重点是理解数据类型CHAR和VARCHAR的差别,表存储引擎InnoDB和MyISAM的区别。
在MySQL数据库中有以下六种触发器:
数据定义语言DDL(Data Ddefinition Language)CREATE,DROP,ALTER
主要为以上操做 即对逻辑结构等有操做的,其中包括表结构,视图和索引。
数据查询语言DQL(Data Query Language)SELECT
这个较为好理解 即查询操做,以select关键字。各类简单查询,链接查询等 都属于DQL。
数据操纵语言DML(Data Manipulation Language)INSERT,UPDATE,DELETE
主要为以上操做 即对数据进行操做的,对应上面所说的查询操做 DQL与DML共同构建了多数初级程序员经常使用的增删改查操做。而查询是较为特殊的一种 被划分到DQL中。
数据控制功能DCL(Data Control Language)GRANT,REVOKE,COMMIT,ROLLBACK
主要为以上操做 即对数据库安全性完整性等有操做的,能够简单的理解为权限控制等。
i交叉链接(CROSS JOIN)
SELECT * FROM A,B(,C)或者SELECT * FROM A CROSS JOIN B (CROSS JOIN C)#没有任何关联条件,结果是笛卡尔积,结果集会很大,没有意义,不多使用内链接(INNER JOIN)SELECT * FROM A,B WHERE A.id=B.id或者SELECT * FROM A INNER JOIN B ON A.id=B.id多表中同时符合某种条件的数据记录的集合,INNER JOIN能够缩写为JOIN
内链接分为三类
外链接(LEFT JOIN/RIGHT JOIN)
联合查询(UNION与UNION ALL)
SELECT * FROM A UNION SELECT * FROM B UNION ...
全链接(FULL JOIN)
能够使用LEFT JOIN 和UNION和RIGHT JOIN联合使用
SELECT * FROM A LEFT JOIN B ON A.id=B.id UNIONSELECT * FROM A RIGHT JOIN B ON A.id=B.id
表链接面试题
有2张表,1张R、1张S,R表有ABC三列,S表有CD两列,表中各有三条记录。
#交叉链接(笛卡尔积): select r.*,s.* from r,s
内链接结果:
select r.*,s.* from r inner join s on r.c=s.c
左链接结果:
select r.*,s.* from r left join s on r.c=s.c
右链接结果:
select r.*,s.* from r right join s on r.c=s.c
全表链接的结果(MySql不支持,Oracle支持):
select r.*,s.* from r full join s on r.c=s.c
条件:一条SQL语句的查询结果作为另外一条查询语句的条件或查询结果
嵌套:多条SQL语句嵌套使用,内部的SQL查询语句称为子查询。
子查询是单行单列的状况:结果集是一个值,父查询使用:=、 <、 > 等运算符
-- 查询工资最高的员工是谁? select * from employee where salary=(select max(salary) from employee);
子查询是多行单列的状况:结果集相似于一个数组,父查询使用:in 运算符
-- 查询工资最高的员工是谁? select * from employee where salary=(select max(salary) from employee);
子查询是多行多列的状况:结果集相似于一张虚拟表,不能用于where条件,用于select子句中作为子表
-- 1) 查询出2011年之后入职的员工信息 -- 2) 查询全部的部门信息,与上面的虚拟表中的信息比对,找出全部部门ID相等的员工。 select * from dept d, (select * from employee where join_date > '2011-1-1') e where e.dept_id = d.id; -- 使用表链接: select d.*, e.* from dept d inner join employee e on d.id = e.dept_id where e.join_date > '2011-1-1'
mysql中的in语句是把外表和内表做hash 链接,而exists语句是对外表做loop循环,每次loop循环再对内表进行查询。一直你们都认为exists比in语句的效率要高,这种说法实际上是不许确的。这个是要区分环境的。
char的特色
varchar的特色
总之,结合性能角度(char更快)和节省磁盘空间角度(varchar更小),具体状况还需具体来设计数据库才是稳当的作法。
varchar(50)中50的涵义
最多存放50个字符,varchar(50)和(200)存储hello所占空间同样,但后者在排序时会消耗更多内存,由于order by col采用fixed_length计算col长度(memory引擎也同样)。在早期 MySQL 版本中, 50 表明字节数,如今表明字符数。
int(20)中20的涵义
是指显示字符的长度。20表示最大显示宽度为20,但仍占4字节存储,存储范围不变;
不影响内部存储,只是影响带 zerofill 定义的 int 时,前面补多少个 0,易于报表展现
mysql为何这么设计
对大多数应用没有意义,只是规定一些工具用来显示字符的个数;int(1)和int(20)存储和计算均同样;
mysql中int(10)和char(10)以及varchar(10)的区别
三者都表示删除,可是三者有一些差异:
所以,在再也不须要一张表的时候,用drop;在想删除部分数据行时候,用delete;在保留表而删除全部数据的时候用truncate。
如何定位及优化SQL语句的性能问题?建立的索引有没有被使用到?或者说怎么才能够知道这条语句运行很慢的缘由?
对于低性能的SQL语句的定位,最重要也是最有效的方法就是使用执行计划,MySQL提供了explain命令来查看语句的执行计划。 咱们知道,无论是哪一种数据库,或者是哪一种数据库引擎,在对一条SQL语句进行执行的过程当中都会作不少相关的优化,对于查询语句,最重要的优化方式就是使用索引。 而执行计划,就是显示数据库引擎对于SQL语句的执行的详细状况,其中包含了是否使用索引,使用什么索引,使用的索引的相关信息等。
执行计划包含的信息 id 有一组数字组成。表示一个查询中各个子查询的执行顺序;
select_type 每一个子查询的查询类型,一些常见的查询类型。
table 查询的数据表,当从衍生表中查数据时会显示 x 表示对应的执行计划id partitions 表分区、表建立的时候能够指定经过那个列进行表分区。 举个例子:
create table tmp ( id int unsigned not null AUTO_INCREMENT, name varchar(255), PRIMARY KEY (id) ) engine = innodb partition by key (id) partitions 5;
type(很是重要,能够看到有没有走索引) 访问类型
possible_keys 可能使用的索引,注意不必定会使用。查询涉及到的字段上若存在索引,则该索引将被列出来。当该列为 NULL时就要考虑当前的SQL是否须要优化了。
key 显示MySQL在查询中实际使用的索引,若没有使用索引,显示为NULL。
TIPS:查询中若使用了覆盖索引(覆盖索引:索引的数据覆盖了须要查询的全部数据),则该索引仅出如今key列表中
key_length 索引长度
ref 表示上述表的链接匹配条件,即哪些列或常量被用于查找索引列上的值
rows 返回估算的结果集数目,并非一个准确的值。
extra 的信息很是丰富,常见的有:
【推荐】SQL性能优化的目标:至少要达到 range 级别,要求是ref级别,若是能够是consts最好。
说明:
1) consts 单表中最多只有一个匹配行(主键或者惟一索引),在优化阶段便可读取到数据。 2) ref 指的是使用普通的索引(normal index)。 3) range 对索引进行范围检索。 反例:explain表的结果,type=index,索引物理文件全扫描,速度很是慢,这个index级别比较range还低,与全表扫描是小巫见大巫。
超大的分页通常从两个方向上来解决.
select * from table where age > 20 limit 1000000,10
这种查询其实也是有能够优化的余地的. 这条语句须要load1000000数据而后基本上所有丢弃,只取10条固然比较慢. 当时咱们能够修改成select * from table where id in (select id from table where age > 20 limit 1000000,10).
这样虽然也load了一百万的数据,可是因为索引覆盖,要查询的全部字段都在索引中,因此速度会很快. 同时若是ID连续的好,咱们还能够select * from table where id > 1000000 limit 10,
效率也是不错的,优化的可能性有许多种,可是核心思想都同样,就是减小load的数据.解决超大分页,其实主要是靠缓存,可预测性的提早查到内容,缓存至redis等k-V数据库中,直接返回便可.
在阿里巴巴《Java开发手册》中,对超大分页的解决办法是相似于上面提到的第一种.
【推荐】利用延迟关联或者子查询优化超多分页场景。 说明:MySQL并非跳过offset行,而是取offset+N行,而后返回放弃前offset行,返回N行,那当offset特别大的时候,效率就很是的低下,要么控制返回的总页数,要么对超过特定阈值的页数进行SQL改写。 正例:先快速定位须要获取的id段,而后再关联: SELECT a.* FROM 表1 a, (select id from 表1 where 条件 LIMIT 100000,20 ) b where a.id=b.id
LIMIT 子句能够被用于强制 SELECT 语句返回指定的记录数。LIMIT 接受一个或两个数字参数。参数必须是一个整数常量。若是给定两个参数,第一个参数指定第一个返回记录行的偏移量,第二个参数指定返回记录行的最大数目。初始记录行的偏移量是 0(而不是 1)
mysql> SELECT * FROM table LIMIT 5,10; // 检索记录行 6-15
为了检索从某一个偏移量到记录集的结束全部的记录行,能够指定第二个参数为 -1:
mysql> SELECT * FROM table LIMIT 95,-1; // 检索记录行 96-last.
若是只给定一个参数,它表示返回最大的记录行数目:
mysql> SELECT * FROM table LIMIT 5; //检索前 5 个记录行
换句话说,LIMIT n 等价于 LIMIT 0,n。
用于记录执行时间超过某个临界值的SQL日志,用于快速定位慢查询,为咱们的优化作参考。
开启慢查询日志
配置项:slow_query_log
能够使用show variables like ‘slov_query_log’查看是否开启,若是状态值为OFF,能够使用set GLOBAL slow_query_log = on来开启,它会在datadir下产生一个xxx-slow.log的文件。
设置临界时间
配置项:long_query_time
查看:show VARIABLES like 'long_query_time',单位秒
设置:set long_query_time=0.5
实操时应该从长时间设置到短的时间,即将最慢的SQL优化掉
查看日志,一旦SQL超过了咱们设置的临界时间就会被记录到xxx-slow.log中
在业务系统中,除了使用主键进行的查询,其余的我都会在测试库上测试其耗时,慢查询的统计主要由运维在作,会按期将业务中的慢查询反馈给咱们。
慢查询的优化首先要搞明白慢的缘由是什么? 是查询条件没有命中索引?是load了不须要的数据列?仍是数据量太大?
因此优化也是针对这三个方向来的,
主键是数据库确保数据行在整张表惟一性的保障,即便业务上本张表没有主键,也建议添加一个自增加的ID列做为主键。设定了主键以后,在后续的删改查的时候可能更加快速以及确保操做数据范围安全。
推荐使用自增ID,不要使用UUID。
由于在InnoDB存储引擎中,主键索引是做为聚簇索引存在的,也就是说,主键索引的B+树叶子节点上存储了主键索引以及所有的数据(按照顺序),若是主键索引是自增ID,那么只须要不断向后排列便可,若是是UUID,因为到来的ID与原来的大小不肯定,会形成很是多的数据插入,数据移动,而后致使产生不少的内存碎片,进而形成插入性能的降低。
总之,在数据量大一些的状况下,用自增主键性能会好一些。
关于主键是聚簇索引,若是没有主键,InnoDB会选择一个惟一键来做为聚簇索引,若是没有惟一键,会生成一个隐式的主键。
null值会占用更多的字节,且会在程序中形成不少与预期不符的状况。
密码散列,盐,用户身份证号等固定长度的字符串应该使用char而不是varchar来存储,这样能够节省空间且提升检索效率。
解题方法
对于此类考题,先说明如何定位低效SQL语句,而后根据SQL语句可能低效的缘由作排查,先从索引着手,若是索引没有问题,考虑以上几个方面,数据访问的问题,长难查询句的问题仍是一些特定类型优化的问题,逐一回答。
2.应尽可能避免在 where 子句中对字段进行 null 值判断,不然将致使引擎放弃使用索引而进行全表扫描,如:
select id from t where num is null -- 能够在num上设置默认值0,确保表中num列没有null值,而后这样查询: select id from t where num=
4.应尽可能避免在 where 子句中使用or 来链接条件,不然将致使引擎放弃使用索引而进行全表扫描,如:
select id from t where num=10 or num=20 -- 能够这样查询: select id from t where num=10 union all select id from t where num=2
5.in 和 not in 也要慎用,不然会致使全表扫描,如:
select id from t where num in(1,2,3) -- 对于连续的数值,能用 between 就不要用 in 了: select id from t where num between 1 and 3
7.若是在 where 子句中使用参数,也会致使全表扫描。由于SQL只有在运行时才会解析局部变量,但优化程序不能将访问计划的选择推迟到运行时;它必须在编译时进行选择。然 而,若是在编译时创建访问计划,变量的值仍是未知的,于是没法做为索引选择的输入项。以下面语句将进行全表扫描:
select id from t where num=@num -- 能够改成强制查询使用索引: select id from t with(index(索引名)) where num=@num
8.应尽可能避免在 where 子句中对字段进行表达式操做,这将致使引擎放弃使用索引而进行全表扫描。如:
select id from t where num/2=100 -- 应改成: select id from t where num=100*2
9.应尽可能避免在where子句中对字段进行函数操做,这将致使引擎放弃使用索引而进行全表扫描。如:
select id from t where substring(name,1,3)=’abc’ -- name以abc开头的id应改成: select id from t where name like ‘abc%’
一个好的数据库设计方案对于数据库的性能每每会起到事半功倍的效果。
须要考虑数据冗余、查询和更新的速度、字段的数据类型是否合理等多方面的内容。
将字段不少的表分解成多个表
对于字段较多的表,若是有些字段的使用频率很低,能够将这些字段分离出来造成新表。
由于当一个表的数据量很大时,会因为使用频率低的字段的存在而变慢。
增长中间表
对于须要常常联合查询的表,能够创建中间表以提升查询效率。
经过创建中间表,将须要经过联合查询的数据插入到中间表中,而后将原来的联合查询改成对中间表的查询。
增长冗余字段
设计数据表时应尽可能遵循范式理论的规约,尽量的减小冗余字段,让数据库设计看起来精致、优雅。可是,合理的加入冗余字段能够提升查询速度。
表的规范化程度越高,表和表之间的关系越多,须要链接查询的状况也就越多,性能也就越差。
注意:冗余字段的值在一个表中修改了,就要想办法在其余表中更新,不然就会致使数据不一致的问题。
当 cpu 飙升到 500%时,先用操做系统命令 top 命令观察是否是 mysqld 占用致使的,若是不是,找出占用高的进程,并进行相关处理。
若是是 mysqld 形成的, show processlist,看看里面跑的 session 状况,是否是有消耗资源的 sql 在运行。找出消耗高的 sql,看看执行计划是否准确, index 是否缺失,或者实在是数据量太大形成。
通常来讲,确定要 kill 掉这些线程(同时观察 cpu 使用率是否降低),等进行相应的调整(好比说加索引、改 sql、改内存参数)以后,再从新跑这些 SQL。
也有多是每一个 sql 消耗资源并很少,可是忽然之间,有大量的 session 连进来致使 cpu 飙升,这种状况就须要跟应用一块儿来分析为什么链接数会激增,再作出相应的调整,好比说限制链接数等
当MySQL单表记录数过大时,数据库的CRUD性能会明显降低,一些常见的优化措施以下:
垂直分区
根据数据库里面数据表的相关性进行拆分。 例如,用户表中既有用户的登陆信息又有用户的基本信息,能够将用户表拆分红两个单独的表,甚至放到单独的库作分库。
简单来讲垂直拆分是指数据表列的拆分,把一张列比较多的表拆分为多张表。 以下图所示,这样来讲你们应该就更容易理解了。
垂直拆分的优势: 能够使得行数据变小,在查询时减小读取的Block数,减小I/O次数。此外,垂直分区能够简化表的结构,易于维护。
垂直拆分的缺点: 主键会出现冗余,须要管理冗余列,并会引发Join操做,能够经过在应用层进行Join来解决。此外,垂直分区会让事务变得更加复杂;
垂直分表
把主键和一些列放在一个表,而后把主键和另外的列放在另外一个表中
适用场景
缺点
水平分区
保持数据表结构不变,经过某种策略存储数据分片。这样每一片数据分散到不一样的表或者库中,达到了分布式的目的。 水平拆分能够支撑很是大的数据量。
水平拆分是指数据表行的拆分,表的行数超过200万行时,就会变慢,这时能够把一张的表的数据拆成多张表来存放。举个例子:咱们能够将用户信息表拆分红多个用户信息表,这样就能够避免单一表数据量过大对性能形成影响。
水品拆分能够支持很是大的数据量。须要注意的一点是:分表仅仅是解决了单一表数据过大的问题,但因为表的数据仍是在同一台机器上,其实对于提高MySQL并发能力没有什么意义,因此 水平拆分最好分库 。
水平拆分可以 支持很是大的数据量存储,应用端改造也少,但 分片事务难以解决 ,跨界点Join性能较差,逻辑复杂。
《Java工程师修炼之道》的做者推荐 尽可能不要对数据进行分片,由于拆分会带来逻辑、部署、运维的各类复杂度 ,通常的数据表在优化得当的状况下支撑千万如下的数据量是没有太大问题的。若是实在要分片,尽可能选择客户端分片架构,这样能够减小一次和中间件的网络I/O。
水平分表
表很大,分割后能够下降在查询时须要读的数据和索引的页数,同时也下降了索引的层数,提升查询次数
适用场景
水平切分的缺点
下面补充一下数据库分片的两种常见方案:
客户端代理: 分片逻辑在应用端,封装在jar包中,经过修改或者封装JDBC层来实现。 当当网的 Sharding-JDBC 、阿里的TDDL是两种比较经常使用的实现。
中间件代理: 在应用和数据中间加了一个代理层。分片逻辑统一维护在中间件服务中。 咱们如今谈的 Mycat 、360的Atlas、网易的DDB等等都是这种架构的实现。
UUID 使用UUID做主键是最简单的方案,可是缺点也是很是明显的。因为UUID很是的长,除占用大量存储空间外,最主要的问题是在索引上,在创建索引和基于索引进行查询时都存在性能问题。 Twitter的分布式自增ID算法Snowflake 在分布式系统中,须要生成全局UID的场合仍是比较多的,twitter的snowflake解决了这种需求,实现也仍是很简单的,除去配置信息,核心代码就是毫秒级时间41位 机器ID 10位 毫秒内序列12位。
跨分片的排序分页
般来说,分页时须要按照指定字段进行排序。当排序字段就是分片字段的时候,咱们经过分片规则能够比较容易定位到指定的分片,而当排序字段非分片字段的时候,状况就会变得比较复杂了。为了最终结果的准确性,咱们须要在不一样的分片节点中将数据进行排序并返回,并将不一样分片返回的结果集进行汇总和再次排序,最后再返回给用户。以下图所示:
主从复制:将主数据库中的DDL和DML操做经过二进制日志(BINLOG)传输到从数据库上,而后将这些日志从新执行(重作);从而使得从数据库的数据与主数据库保持一致。
基本原理流程,3个线程以及之间的关联
主:binlog线程——记录下全部改变了数据库数据的语句,放进master上的binlog中;
从:io线程——在使用start slave 以后,负责从master上拉取 binlog 内容,放进本身的relay log中;
从:sql执行线程——执行relay log中的语句;
复制过程
Binary log:主数据库的二进制日志
Relay log:从服务器的中继日志
第一步:master在每一个事务更新数据完成以前,将该操做记录串行地写入到binlog文件中。
第二步:salve开启一个I/O Thread,该线程在master打开一个普通链接,主要工做是binlog dump process。若是读取的进度已经跟上了master,就进入睡眠状态并等待master产生新的事件。I/O线程最终的目的是将这些事件写入到中继日志中。
第三步:SQL Thread会读取中继日志,并顺序执行该日志中的SQL事件,从而与主数据库中的数据保持一致。
读写分离是依赖于主从复制,而主从复制又是为读写分离服务的。由于主从复制要求slave不能写只能读(若是对slave执行写操做,那么show slave status将会呈现Slave_SQL_Running=NO,此时你须要按照前面提到的手动同步一下slave)。
优势:直接实现读写分离和负载均衡,不用修改代码,master和slave用同样的账号,mysql官方不建议实际生产中使用
缺点:下降性能, 不支持事务
若是采用了mybatis, 能够将读写分离放在ORM层,好比mybatis能够经过mybatis plugin拦截sql语句,全部的insert/update/delete都访问master库,全部的select 都访问salve库,这样对于dao层都是透明。 plugin实现时能够经过注解或者分析语句是读写方法来选定主从库。不过这样依然有一个问题, 也就是不支持事务, 因此咱们还须要重写一下DataSourceTransactionManager, 将read-only的事务扔进读库, 其他的有读有写的扔进写库。
缺点:类内部方法经过this.xx()方式相互调用时,aop不会进行拦截,需进行特殊处理。
视库的大小来定,通常来讲 100G 内的库,能够考虑使用 mysqldump 来作,由于 mysqldump更加轻巧灵活,备份时间选在业务低峰期,能够天天进行都进行全量备份(mysqldump 备份出来的文件比较小,压缩以后更小)。
100G 以上的库,能够考虑用 xtranbackup 来作,备份速度明显要比 mysqldump 要快。通常是选择一周一个全备,其他天天进行增量备份,备份时间为业务低峰期。
物理备份恢复快,逻辑备份恢复慢
这里跟机器,尤为是硬盘的速率有关系,如下列举几个仅供参考
20G的2分钟(mysqldump)
80G的30分钟(mysqldump)
111G的30分钟(mysqldump)
288G的3小时(xtra)
3T的4小时(xtra)
逻辑导入时间通常是备份时间的5倍以上
首先在恢复以前就应该作足准备工做,避免恢复的时候出错。好比说备份以后的有效性检查、权限检查、空间检查等。若是万一报错,再根据报错的提示来进行相应的调整。
mysqldump 属于逻辑备份。加入–single-transaction 选项能够进行一致性备份。后台进程会先设置 session 的事务隔离级别为 RR(SET SESSION TRANSACTION ISOLATION LEVELREPEATABLE READ),以后显式开启一个事务(START TRANSACTION /!40100 WITH CONSISTENTSNAPSHOT /),这样就保证了该事务里读到的数据都是事务事务时候的快照。以后再把表的数据读取出来。若是加上–master-data=1 的话,在刚开始的时候还会加一个数据库的读锁(FLUSH TABLES WITH READ LOCK),等开启事务后,再记录下数据库此时 binlog 的位置(showmaster status),立刻解锁,再读取表的数据。等全部的数据都已经导完,就能够结束事务
xtrabackup 属于物理备份,直接拷贝表空间文件,同时不断扫描产生的 redo 日志并保存下来。最后完成 innodb 的备份后,会作一个 flush engine logs 的操做(老版本在有 bug,在5.6 上不作此操做会丢数据),确保全部的 redo log 都已经落盘(涉及到事务的两阶段提交
概念,由于 xtrabackup 并不拷贝 binlog,因此必须保证全部的 redo log 都落盘,不然可能会丢最后一组提交事务的数据)。这个时间点就是 innodb 完成备份的时间点,数据文件虽然不是一致性的,可是有这段时间的 redo 就可让数据文件达到一致性(恢复的时候作的事
情)。而后还须要 flush tables with read lock,把 myisam 等其余引擎的表给备份出来,备份完后解锁。这样就作到了完美的热备。
使用 myisamchk 来修复,具体步骤:
使用repair table 或者 OPTIMIZE table命令来修复,REPAIR TABLE table_name 修复表 OPTIMIZE TABLE table_name 优化表 REPAIR TABLE 用于修复被破坏的表。 OPTIMIZE TABLE 用于回收闲置的数据库空间,当表上的数据行被删除时,所占据的磁盘空间并无当即被回收,使用了OPTIMIZE TABLE命令后这些空间将被回收,而且对磁盘上的数据行进行重排(注意:是磁盘上,而非数据库)
做者:ThinkWon,遵循CC 4.0 BY-SA版权协议
连接:https://blog.csdn.net/ThinkWo...