Mysql开发实践8问,你能hold住几个?

标签: mysql 开发 实践 | 发表时间:2014-09-22 07:23 | 作者:a339811061
出处:http://blog.csdn.net
最近项目对DB依赖比较重,梳理了这段时间使用Mysql遇到的8个比较具有代表性的问题,答案也比较偏开发实践,没有DBA专业和深入,有出入的请使劲拍砖!...

1、Mysql读写性能是多少,有哪些性能相关的配置参数?
2、Mysql负载高时,如何找到是由哪些SQL引起的?
3、如何针对具体的SQL做优化?
4、SQL层面已难以优化,请求量继续增大时的应对策略?
5、Mysql如何做主从数据同步?
6、如何防止DB误操作和做好容灾?
7、该选择Mysql哪种存储引擎,Innodb具有什么特性?
8、Mysql内部结构有哪些层次?

======================================================

1、Mysql读写性能是多少,有哪些性能相关的重要参数?

* 这里做了几个简单压测实验
机器:8核CPU,8G内存
表结构(尽量模拟业务):12个字段(1个bigint(20)为自增primary key,5个int(11),5个varchar(512),1个timestamp)
实验1(写):insert => 6000/s
前提:连接数100,每次insert单条记录
分析:CPU跑了50%,这时磁盘为顺序写,故性能很高
实验2(写):update(where条件命中索引) => 200/s 
前提:连接数100,10w条记录,每次update单条记录的4个字段(2个int(11),2个varchar(512))
分析:CPU跑2%,瓶颈明显在IO的随机写
实验3(读):select(where条件命中索引) => 5000/s
前提:连接数100,10w条记录,每次select单条记录的4个字段(2个int(11),2个varchar(512))
分析:CPU跑6%,瓶颈在IO,和db的cache大小相关
实验4(读):select(where条件没命中索引) => 60/s
前提:连接数100,10w条记录,每次select单条记录的4个字段(2个int(11),2个varchar(512))
分析:CPU跑到80%,每次select都需遍历所有记录,看来索引的效果非常明显!

* 几个重要的配置参数,可根据实际的机器和业务特点调整
max_connecttions:最大连接数
table_cache:缓存打开表的数量
key_buffer_size:索引缓存大小
query_cache_size:查询缓存大小
sort_buffer_size:排序缓存大小(会将排序完的数据缓存起来)
read_buffer_size:顺序读缓存大小
read_rnd_buffer_size:某种特定顺序读缓存大小(如order by子句的查询)
PS:查看配置方法:show variables like '%max_connecttions%';

======================================================

2、Mysql负载高时,如何找到是由哪些SQL引起的?

* 方法:慢查询日志分析(mysqldumpslow)

* 慢查询日志例子,可看到每个慢查询SQL的耗时:

# User@Host: edu_online[edu_online] @  [10.139.10.167]
# Query_time: 1.958000  Lock_time: 0.000021 Rows_sent: 254786  Rows_examined: 254786
SET timestamp=1410883292;
select * from t_online_group_records;
日志显示该查询用了1.958秒,返回254786行记录,一共遍历了254786行记录。及具体的时间戳和SQL语句。

* 使用mysqldumpslow进行慢查询日志分析
mysqldumpslow -s t -t 5 slow_log_20140819.txt 
输出查询耗时最多的Top5条SQL语句
-s:排序方法,t表示按时间 (此外,c为按次数,r为按返回记录数等)
-t:去Top多少条,-t 5表示取前5条
执行完分析结果如下:
Count: 1076100  Time=0.09s (99065s)  Lock=0.00s (76s)  Rows=408.9 (440058825), edu_online[edu_online]@28hosts
  select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > N
Count: 1076099  Time=0.05s (52340s)  Lock=0.00s (91s)  Rows=62.6 (67324907), edu_online[edu_online]@28hosts
  select * from t_online_course where UNIX_TIMESTAMP(c_updatetime) > N
Count: 63889  Time=0.78s (49607s)  Lock=0.00s (3s)  Rows=0.0 (18), edu_online[edu_online]@[10.213.170.137]
  select f_uin from t_online_student_contact where f_modify_time > N
Count: 1076097  Time=0.02s (16903s)  Lock=0.00s (72s)  Rows=52.2 (56187090), edu_online[edu_online]@28hosts
  select * from t_online_video_info where UNIX_TIMESTAMP(v_update_time) > N
Count: 330046  Time=0.02s (6822s)  Lock=0.00s (45s)  Rows=0.0 (2302), edu_online[edu_online]@4hosts
  select uin,cid,is_canceled,unix_timestamp(end_time) as endtime,unix_timestamp(update_time) as updatetime 
  from t_kick_log where unix_timestamp(update_time) > N
以第1条为例,表示这类SQL(N可以取很多值,这里mysqldumpslow会归并起来)在8月19号的慢查询日志内出现了1076100次,总耗时99065秒,总返回440058825行记录,有28个客户端IP用到。
通过慢查询日志分析,就可以找到最耗时的SQL,然后进行具体的SQL分析了

* 慢查询相关的配置参数
log_slow_queries:是否打开慢查询日志,得先确保=ON后面才有得分析
long_query_time:查询时间大于多少秒的SQL被当做是慢查询,一般设为1S
log_queries_not_using_indexes:是否将没有使用索引的记录写入慢查询日志
slow_query_log_file:慢查询日志存放路径

======================================================


3、如何针对具体的SQL做优化?


* 使用Explain分析SQL语句执行计划
mysql> explain select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789;
+----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+
| id | select_type | table                  | type | possible_keys | key  | key_len | ref  | rows | Extra       |
+----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+
|  1 | SIMPLE      | t_online_group_records | ALL  | NULL          | NULL | NULL    | NULL |   47 | Using where |
+----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+
1 row in set (0.00 sec)
如上面例子所示,重点关注下type,rows和Extra:
type:使用类别,有无使用到索引。结果值从好到坏:... > range(使用到索引) > index > ALL(全表扫描),一般查询应达到range级别
rows:SQL执行检查的记录数
Extra:SQL执行的附加信息,如"Using index"表示查询只用到索引列,不需要去读表等

* 使用Profiles分析SQL语句执行时间和消耗资源
mysql> set profiling=1; (启动profiles,默认是没开启的)
mysql> select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789; (执行要分析的SQL语句)
mysql> show profiles;
+----------+------------+----------------------------------------------------------------------------------------------+
| Query_ID | Duration   | Query                                                                                        |
+----------+------------+----------------------------------------------------------------------------------------------+
|        1 | 0.00043250 | select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789 |
+----------+------------+----------------------------------------------------------------------------------------------+
1 row in set (0.00 sec)
mysql> show profile cpu,block io for query 1; (可看出SQL在各个环节的耗时和资源消耗)
+----------------------+----------+----------+------------+--------------+---------------+
| Status               | Duration | CPU_user | CPU_system | Block_ops_in | Block_ops_out |
+----------------------+----------+----------+------------+--------------+---------------+
...
| optimizing           | 0.000016 | 0.000000 |   0.000000 |            0 |             0 |
| statistics           | 0.000020 | 0.000000 |   0.000000 |            0 |             0 |
| preparing            | 0.000017 | 0.000000 |   0.000000 |            0 |             0 |
| executing            | 0.000011 | 0.000000 |   0.000000 |            0 |             0 |
| Sending data         | 0.000076 | 0.000000 |   0.000000 |            0 |             0 |
...

* SQL优化的技巧 (只提一些业务常遇到的问题)
1、最关键:索引,避免全表扫描。
对接触的项目进行慢查询分析,发现TOP10的基本都是忘了加索引或者索引使用不当,如索引字段上加函数导致索引失效等(如where UNIX_TIMESTAMP(gre_updatetime)>123456789)
+----------+------------+---------------------------------------+
| Query_ID | Duration   | Query                                 |
+----------+------------+---------------------------------------+
|        1 | 0.00024700 | select * from mytable where id=100    |
|        2 | 0.27912900 | select * from mytable where id+1=101  |
+----------+------------+---------------------------------------+
另外很多同学在拉取全表数据时,喜欢用select xx from xx limit 5000,1000这种形式批量拉取,其实这个SQL每次都是全表扫描,建议添加1个自增id做索引,将SQL改为select xx from xx where id>5000 and id<6000;
+----------+------------+-----------------------------------------------------+
| Query_ID | Duration   | Query                                               |
+----------+------------+-----------------------------------------------------+
|        1 | 0.00415400 | select * from mytable where id>=90000 and id<=91000 |
|        2 | 0.10078100 | select * from mytable limit 90000,1000              |
+----------+------------+-----------------------------------------------------+
合理用好索引,应该可解决大部分SQL问题。当然索引也非越多越好,过多的索引会影响写操作性能
2、只select出需要的字段,避免select *
+----------+------------+-----------------------------------------------------+
| Query_ID | Duration   | Query                                               |
+----------+------------+-----------------------------------------------------+
|        1 | 0.02948800 | select count(1) from ( select id from mytable ) a   |
|        2 | 1.34369100 | select count(1) from ( select * from mytable ) a    |
+----------+------------+-----------------------------------------------------+
3、尽量早做过滤,使Join或者Union等后续操作的数据量尽量小
4、把能在逻辑层算的提到逻辑层来处理,如一些数据排序、时间函数计算等
5、......


PS:关于SQL优化,KM已经有足够多文章了,所以就不讲太全面了,只重点说自己1个感受:索引!基本都是因为索引!

======================================================

4、SQL层面已难以优化,请求量继续增大时的应对策略?

* 下面是我能想到的几个方法,每个方法又都是一篇大文章了,这里就不展开
分库分表
使用集群(master-slave),读写分离
增加业务的cache层
使用连接池

======================================================

5、Mysql如何做主从数据同步?

* 复制机制(Replication)
master通过复制机制,将master的写操作通过binlog传到slave生成中继日志(relaylog),slave再将中继日志redo,使得主库和从库的数据保持同步

* 复制相关的3个Mysql线程
1、slave上的I/O线程:向master请求数据
2、master上的Binlog Dump线程:读取binlog事件并把数据发送给slave的I/O线程
3、slave上的SQL线程:读取中继日志并执行,更新数据库
属于slave主动请求拉取的模式

* 实际使用可能遇到的问题
数据非强一致:默认为异步复制,master和slave的数据会有一定延迟(称为主从同步距离,一般<1s)
主从同步距离变大:可能是DB写入压力大,也可能是slave机器负载高,网络波动等原因,具体问题具体分析

* 相关监控命令
show processlist :查看Mysql进程信息,包括3个同步线程的当前状态
show master status :查看master配置及当前复制信息
show slave status :查看slave配置及当前复制信息

======================================================

6、如何防止DB误操作和做好容灾?

* 业务侧应做到的几点:
重要DB数据的手工修改操作,操作前需做到2点:1 先在测试环境操作 2 备份数据
根据业务重要性做定时备份,考虑系统可承受的恢复时间
进行容灾演练,感觉很必要

* Mysql备份和恢复操作
1、备份:使用mysqldump导出数据
mysqldump -u 用户名 -p 数据库名 [表名] > 导出的文件名
mysqldump -uroot -p test mytable > mytable.20140921.bak.sql
2、恢复:导入备份数据
mysql -uroot -p test < mytable.20140921.bak.sql
3、恢复:导入备份数据之后发送的写操作。先使用mysqlbinlog导出这部分写操作SQL(基于时间点或位置)
如导出2014-09-21 09:59:59之后的binlog:
mysqlbinlog --database="test" --start-date="2014-09-21 09:59:59" /var/lib/mysql/mybinlog.000001 > binlog.data.sql
如导出起始id为123456之后的binlog:
mysqlbinlog --database="test" --start-position="123456" /var/lib/mysql/mybinlog.000001 > binlog.data.sql
最后把要恢复的binlog导入db
mysql -uroot -p test < binlog.data.sql

======================================================

7、该选择Mysql哪种存储引擎,Innodb具有什么特性?

* 存储引擎简介
插件式存储引擎是Mysql的重要特性,Mysql支持多种存储引擎以满足用户的多种应用场景
存储引擎解决的问题:如何组织mysql数据在介质中高效地读取,需考虑存储机制、索引设计、并发读写的锁机制等
Mysql5.0支持的存储引擎有MyISAM、InnoDB、Memory、Merge等

* MyISAM和InnoDB的区别(只说重点了)
1、InnoDB
Mysql5.5之后默认引擎。
1 支持行锁:并发性能好
2 支持事务:故InnoDB称为事务性存储引擎,支持ACID,提供了具有提交、回滚和崩溃恢复能力的事务安全
3 支持外键:当前唯一支持外键的引擎
2、MyISAM
Mysql5.5之前默认引擎。
1 支持表锁:插入+查询速度快,更新+删除速度慢
2 不支持事务

* 使用show engines可查看当前Mysql支持的存储引擎详情


======================================================

8、Mysql内部结构有哪些层次?

* 非专业DBA,这里只简单贴个结构图说明下。Mysql是开源系统,其设计思路和源代码都出自大牛之手,有空可以学习下。

1 Connectors:连接器。接收不同语言的Client交互
2 Management Serveices & Utilities:系统管理和控制工具
3 Connection Pool: 连接池。管理用户连接
4 SQL Interface: SQL接口。接受用户的SQL命令,并且返回用户需要查询的结果
5 Parser: 解析器。验证和解析SQL语句成内部数据结构
6 Optimizer: 查询优化器。为查询语句选择合适的执行路径
7 Cache和Buffer:查询缓存。缓存查询的结果,有命中即可直接返回
8 Engine :存储引擎。Mysql数据最后组织并存储成具体文件



作者:a339811061 发表于2014-9-21 23:23:28 原文链接
阅读:106 评论:0 查看评论

相关 [mysql 开发 实践] 推荐:

Mysql开发实践8问,你能hold住几个?

- - CSDN博客数据库推荐文章
最近项目对DB依赖比较重,梳理了这段时间使用Mysql遇到的8个比较具有代表性的问题,答案也比较偏开发实践,没有DBA专业和深入,有出入的请使劲拍砖. 1、Mysql读写性能是多少,有哪些性能相关的配置参数. 2、Mysql负载高时,如何找到是由哪些SQL引起的. 3、如何针对具体的SQL做优化. 4、SQL层面已难以优化,请求量继续增大时的应对策略.

MySQL云原生方案在携程开发测试场景中的实践

- - InfoQ推荐
随着Kubernetes平台在容器云计算领域的一统天下,云原生 (Cloud Native) 一词也被提的越来越频繁. 各类应用纷纷走上了容器化、云原生化的道路,无状态服务应用在Kubernetes平台上的运行,已经得到了大规模生产级别的实践认可. 相比之下,有状态应用就没有那么顺利了,特别是那些十分重要却又"历史悠久"、不是按照分布式架构理念设计的有状态服务,尤其困难.

MySQL主从复制(Master-Slave)与读写分离(MySQL-Proxy)实践

- - CSDN博客推荐文章
接触php已快有3年了,一直想有所突破,最近看了下分布和数据库读写分离. 总算也小有成果.....前段时间发布了,用ngix实现分流. nginx 配置轮询分流-实现负载均衡【测试通过】. 今天就来分享一下,数据库读写分离并且同步. 我目前,介绍的是1台写入服务器,n台读取服务器..... 写这个的同时,我在思考一个问题,如果写入压力过大的时候,1台服务器写入不够用,那么写入该怎么办.

异地多活:MySQL实时双向(多向)复制实践 - MySQL

- -
携程内部MySQL部署采用多机房部署,机房A部署一主一从,机房B部署一从,作为DR(Disaster Recovery)切换使用. 当前部署下,机房B部署的应用需要跨机房进行写操作;当机房A出现故障时,DBA需要手动对数据库进行DR切换. 为了做到真正的数据异地多活,实现MySQL同机房就近读写,机房故障时无需进行数据库DR操作,只进行流量切换,就需要引入数据实时双向(多向)复制组件.

商品库MySQL优化实践

- 硬盘被格 - Erlang非业余研究
原创文章,转载请注明: 转载自Erlang非业余研究. 本文链接地址: 商品库MySQL优化实践. 在刚刚结束的Qcon 2011北京会议上我做了以下的分享:. 淘宝商品库是淘宝网最核心的数据库之一,采用MySQL主备集群的架构,特点是数据量大且增长速度快,读多写少,对安全性要求高,并发请求高. 淘宝商品库MySQL优化实践 View more presentations from Feng Yu..

2012DTCC – MySQL性能调优最佳实践

- - Sky.Jian 朝阳的天空
上周受邀于 IT168,在 2012年度的 DTCC 大会上做了一个小的主题分享,内容主要是最近几年在 MySQL 数据库的性能调优过程中积累的一点点经验总结,希望能对大家有用. 其中部分内容在之前的 第二届华东地区数据库大会 上已经有过分享,这次是在当时分享内容的基础上增加了硬件和系统层面的内容,同时根据听众反馈对原有内容进行了部分优化改进.

PHP最佳实践:MySQL的连接

- - IT技术博客大学习
标签:   MySQL连接. 从PHP 5.5版本开始, mysql函数将被官方废弃,即所有 mysql_* 格式函数 将在5.5版本后当产生一个. E_DEPRECATED 错误. 废弃mysql函数的主要原因为:此函数为 的MySQL  3.23版本开发的,而目前的MySQL版本已经到了 5.6,中间产生了非常多的特性没有被函数所支持.

MySQL数据库优化实践

- - OurMySQL
   最近一段时间,我们整理了一些关于Percona,Linux,Flashcache,硬件设备的优化经验,分享给大家:.     1.开启BBWC.    RAID卡都有写cache(Battery Backed Write Cache),写cache对IO性能的提升非常明显,因为掉电会丢失数据,所以必须由电池提供支持.

微店 MySQL 自动化运维实践

- - IT瘾-tuicool
互联网时代,数据库如何满足敏捷开发,敏捷交付的要求. 传统靠DBA人肉执行的方式,在面对大量业务需求时,DBA手速再快,记忆力再好估计也不能提供好的数据库服务. 在介绍自动化运维之前,我们来了解下是怎么使用数据库的. 数据库的使用方式主要有两种:. 应用混合部署(实例):有新数据库需求时,很多人都会选择找个实例,建个数据库和帐号提供给业务.

京东到家MySQL容器化实践

- - DockOne.io
【编者的话】本文介绍了京东到家MySQL容器化的实践,包括基于容器的底层资源平台、监控系统及数据库自动化运维平台. 同时也详细介绍了具体的技术实现,包括软硬件选型、容器调度算法、数据库高可用实现、监控系统及数据库自动化运维平台开发. 随着京东到家业务的快速发展,MySQL数据库的访问量越来越大,在云主机上搭建MySQL越来越无法满足我们的要求.