1 对多业务,数据库水平切分架构一次搞定

标签: dev | 发表时间:2017-07-11 08:00 | 作者:
出处:http://itindex.net/relian

本文将以“帖子中心”为例,介绍“1对多”类业务,随着数据量的逐步增大,数据库性能显著降低,数据库水平切分相关的架构实践:

  • 如何来实施水平切分

  • 水平切分后常见的问题

  • 典型问题的优化思路及实践

 

一、什么是1 对多关系

所谓的“1对1”,“1对多”,“多对多”,来自数据库设计中的“实体-关系”ER模型,用来描述实体之间的映射关系。

 

1对1

  • 一个用户只有一个登录名,一个登录名只对应一个用户

  • 一个uid对应一个login_name,一个login_name只对应一个uid

这是一个1对1的关系。

 

1对多

  • 一个用户可以发多条微博,一条微博只有一个发送者

  • 一个uid对应多个msg_id,一个msg_id只对应一个uid

这是一个1对多的关系。

 

多对多

  • 一个用户可以关注多个用户

  • 一个用户也可以被多个粉丝关注

这是一个多对多的关系。

 

二、帖子中心业务分析

帖子中心是一个典型的1对多业务。

 

一个用户可以发布多个帖子,一个帖子只对应一个发布者。

 

任何脱离业务的架构设计都是耍流氓,先来看看帖子中心对应的业务需求。

 

帖子中心,是一个提供帖子发布/修改/删除/查看/搜索的服务。

 

写操作:

  • 发布(insert)帖子

  • 修改(update)帖子

  • 删除(delete)帖子

 

读操作:

  • 通过tid查询(select)帖子实体,单行查询

  • 通过uid查询(select)用户发布过的帖子,列表查询

  • 帖子检索(search),例如通过时间、标题、内容搜索符合条件的帖子

 

在数据量较大,并发量较大的时候,通常通过元数据与索引数据分离的 架构来满足不同类型的需求:

架构中的几个关键点:

  • tiezi-center:帖子服务

  • tiezi-db:提供元数据存储

  • tiezi-search:帖子搜索服务

  • tiezi-index:提供索引数据存储

  • MQ:tiezi-center与tiezi-search通讯媒介,一般不直接使用RPC调用,而是通过MQ对两个子系统解耦(为何这么解耦,请参见《 到底什么时候该使用MQ?》)

 

其中,tiezi-center和tiezi-search分别满足两类不同的 读需求

如上图所示:

  • tid和uid上的查询需求,可以由tiezi-center从 元数据读取并返回

  • 其他类检索需求,可以由tiezi-search从 索引数据检索并返回

 

对于 写需求

如上图所示:

  • 增加,修改,删除的操作都会从tiezi-center发起

  • tiezi-center修改元数据

  • tiezi-center将信息修改通知发送给MQ

  • tiezi-search从MQ接受修改信息

  • tiezi-search修改索引数据

 

tiezi-search,搜索架构不是本文的重点(外置索引架构设计,请参见《 100亿数据1万属性数据架构设计》),后文将重点描述帖子中心元数据这一块的水平切分设计。

 

三、帖子中心元数据设计

通过帖子中心业务分析,很容易了解到,其核心元数据为:

Tiezi(tid, uid, time, title, content, …);

其中:

  • tid为帖子ID,主键

  • uid为用户ID,发帖人

  • time, title, content …等为帖子属性

 

数据库设计上,在业务初期,单库就能满足元数据存储要求,其典型的架构设计为:

  • tiezi-center:帖子中心服务,对调用者提供友好的RPC接口

  • tiezi-db:对帖子数据进行存储

 

在相关字段上建立索引,就能满足相关业务需求:

  • 帖子记录查询, 通过tid查询,约占读请求量90%

select * from t_tiezi where tid=$tid

  • 帖子列表查询, 通过uid查询其发布的所有帖子,约占读请求量10%

select * from t_tiezi where uid=$uid

 

四、帖子中心水平切分-tid 切分法

当数据量越来越大时,需要对帖子数据的存储进行线性扩展。


既然是帖子中心,并且帖子记录查询量占了总请求的90%,很容易想到通过tid字段取模来进行水平切分:

这个方法简单直接, 优点

  • 100%写请求可以直接定位到库

  • 90%的读请求可以直接定位到库

 

缺点

  • 一个用户发布的所有帖子可能会落到不同的库上,10%的请求通过uid来查询会比较麻烦

如上图,一个uid访问需要遍历所有库。

 

五、帖子中心水平切分-uid 切分法

有没有一种切分方法,确保同一个用户发布的所有帖子都落在同一个库上,而在查询一个用户发布的所有帖子时,不需要去遍历所有的库呢?

:使用uid来分库可以解决这个问题。

 

新出现的问题:如果使用uid来分库,确保了一个用户的帖子数据落在同一个库上,那通过tid来查询,就不知道这个帖子落在哪个库上了,岂不是还需要遍历全库,需要怎么优化呢?

tid的查询是单行记录查询,只要在数据库(或者缓存)记录tid到uid的映射关系,就能解决这个问题。

 

新增一个索引库:

t_mapping(tid, uid);

  • 这个库只有两列,可以承载很多数据

  • 即使数据量过大,索引库可以利用tid水平切分

  • 这类kv形式的索引结构,可以很好的利用cache优化查询性能

  • 一旦帖子发布,tid和uid的映射关系就不会发生变化,cache的命中率会非常高

 

使用uid分库,并增加索引库记录tid到uid的映射关系之后,每当有uid上的查询:

可以通过uid直接定位到库。

 

每当有tid上的查询:

  • 先查询索引表,通过tid查询到对应的uid

  • 再通过uid定位到库

 

这个方法的 优点

  • 一个用户发布的所以帖子落在同一个库上

  • 10%的请求过过uid来查询列表,可以直接定位到库

  • 索引表cache命中率非常高,因为tid与uid的映射关系不会变

 

缺点

  • 90%的tid请求,以及100%的修改请求,不能直接定位到库,需要先进行一次索引表的查询,当然这个查询非常块,通常在5ms内可以返回

  • 数据插入时需要操作元数据与索引表,可能引发潜在的一致性问题

 

六、帖子中心水平切分- 基因法

有没有一种方法,既能够通过uid定位到库,又不需要建立索引表来进行二次查询呢,这就是本文要叙述的“1对多”业务分库最佳实践, 基因法

 

什么是分库基因?

通过uid分库,假设分为16个库,采用uid%16的方式来进行数据库路由,这里的uid%16,其本质是 uid的最后4个bit决定这行数据落在哪个库上, 这4个bit,就是分库基因

 

什么是基因法分库?

在“1对多”的业务场景,使用“1”分库,在“多”的数据id生成时,id末端加入分库基因,就能同时满足“1”和“多”的分库查询需求。

如上图所示,uid=666的用户发布了一条帖子(666的二进制表示为:1010011010):

  • 使用uid%16分库,决定这行数据要插入到哪个库中

  • 分库基因是uid的最后4个bit,即1010

  • 在生成tid时,先使用一种分布式ID生成算法生成前60bit(上图中绿色部分)

  • 将分库基因加入到tid的最后4个bit(上图中粉色部分)

  • 拼装成最终的64bit帖子tid(上图中蓝色部分)

(怎么生成60bit分布式唯一ID,请参见《 分布式ID生成算法》)


这般,保证了同一个用户发布的所有帖子的tid,都落在同一个库上,tid的最后4个bit都相同,于是:

  • 通过uid%16能够定位到库

  • 通过tid%16也能定位到库

 

潜在问题一:同一个uid发布的tid落在同一个库上,会不会出现数据不均衡?

:只要uid是均衡的,每个用户发布的平均帖子数是均衡的,每个库的数据就是均衡的。

 

潜在问题二:最开始分16库,分库基因是4bit,未来要扩充成32库,分库基因变成了5bit,那怎么办?

:需要提前做好容量预估,例如事先规划好5年内数据增长256库足够,就提前预留8bit基因。

 

七、总结

将以“帖子中心”为典型的“1对多”类业务,在架构上,采用 元数据与索引数据分离的架构设计方法:

  • 帖子服务,元数据满足uid和tid的查询需求

  • 搜索服务,索引数据满足复杂搜索寻求

 

对于 元数据的存储,在数据量较大的情况下,有三种常见的切分方法:

  • tid切分法,按照tid分库,同一个用户发布的帖子落在不同的库上,通过uid来查询要遍历所有库

  • uid切分法,按照uid分库,同一个用户发布的帖子落在同一个库上,需要通过索引表或者缓存来记录tid与uid的映射关系,通过tid来查询时,先查到uid,再通过uid定位库

  • 基因法,按照uid分库,在生成tid里加入uid上的分库基因,保证通过uid和tid都能直接定位到库


对于1对多的业务场景,分库架构不再是瓶颈。


相关推荐

关于“搜索架构”,请参考系列文章:

如何迅猛的实现搜索需求

深入浅出搜索引擎架构、方案与细节

58同城如何检索到1秒前发布的帖子

100亿数据1万属性数据架构设计

相关 [业务 数据库 架构] 推荐:

1 对多业务,数据库水平切分架构一次搞定

- - IT瘾-dev
本文将以“帖子中心”为例,介绍“1对多”类业务,随着数据量的逐步增大,数据库性能显著降低,数据库水平切分相关的架构实践:. 典型问题的优化思路及实践. 所谓的“1对1”,“1对多”,“多对多”,来自数据库设计中的“实体-关系”ER模型,用来描述实体之间的映射关系. 一个用户只有一个登录名,一个登录名只对应一个用户.

对数据库架构的再思考

- - 人月神话的BLOG
前面在谈PaaS的时候曾经谈到过共享数据库,私有数据库的问题,在这里再谈谈在多业务系统建设过程中的数据架构模式问题. 首先来看下传统的数据交换解决方案如下图:. 业务场景为单独构建的四个业务系统,在四个业务系统中SID数据为需要跨四个应用交互和共享的数据. 传统的做法则是对四个应用存在的SID库数据进行数据集成和交换,则后续的每一个业务系统中都有全部的共享基础数据,任何一个应用的SID库数据需要通过数据交换和集成同步四份.

OceanBase 数据库的系统架构

- -
OceanBase 数据库采用 Shared-Nothing 架构,各个节点之间完全对等,每个节点都有自己的 SQL 引擎、存储引擎,运行在普通 PC 服务器组成的集群之上,具备可扩展、高可用、高性能、低成本、云原生等核心特性. OceanBase 数据库的整体架构如下图所示. OceanBase 数据库支持数据跨地域(Region)部署,每个地域可能位于不同的城市,距离通常比较远,所以 OceanBase 数据库可以支持多城市部署,也支持多城市级别的容灾.

优良的数据库架构--让网站飞起来

- We_Get - 博客园-首页原创精华区
   很少谈架构方面的事情,主要是因为这确实是个对知识面和知识深度要求很高的领域,无论是开发语言的选择、代码的架构,服务器的搭配、网络的架构、数据库的架构还是第三方软件的选用等,每一方面都是个很大的方向,每个方向都值得一个人去研究一辈子;每每看到某某网站的首席架构师之类的人(不过很多是海绵派),总觉得那就是乐于做技术的人的终极目标,总是有种崇拜感.

MySQL云数据库服务的架构探索

- - 博客园_知识库
  MySQL作为一种低成本、高性能、可靠性良好而且开源的数据库产品,在互联网企业中应用非常广泛. 例如,淘宝网就有数千台MySQL服务器. 虽然近两年来NoSQL的发展很快,新产品层出不穷,但在业务中应用NoSQL对开发者来说要求比较高,而MySQL拥有成熟的中间件、运维工具, 已经形成一个良性的生态圈.

[转][转]列式数据库之infobright以及架构

- - heiyeluren的blog(黑夜路人的开源世界)
文章来源:http://www.cnblogs.com/inmanhust/tag/infobright/. 列式数据库之infobright.   年前听过Sybase中国区副总裁的关于列式数据库的讲座之后就一直被列式数据库强大的性能吸引. 最近邂逅了infobright,列式数据库的学习展开了.

分布式MySQL数据库TDSQL架构分析(转)

- - 数据库 - ITeye博客
腾讯计费平台部为了解决基于内存的NoSQL解决方案HOLD平台在应对多种业务接入时的不足,结合团队在MySQL领域多年应用和优化经验,最终在MySQL存储引擎基础上,打造一套分布式SQL系统TDSQL. 腾讯计费平台部托管着公司90%以上的虚拟账户,如QB、Q点、包月服务、游戏的二级账户等,为了保证能顺畅支撑公司各大业务的实时在线交易,并且在各种灾难场景下数据是一致并且可用的,对系统的可用性、一致性切换要求非常高,因此计费团队历来都非常重视高一致性存储系统的建设.

美团数据库高可用架构的演进与设想 -

- -
本文介绍最近几年美团MySQL数据库高可用架构的演进过程,以及我们在开源技术基础上做的一些创新. 同时,也和业界其它方案进行综合对比,了解业界在高可用方面的进展,和未来我们的一些规划和展望. 在2015年之前,美团(点评侧)长期使用MMM(Master-Master replication manager for MySQL)做数据库高可用,积累了比较多的经验,也踩了不少坑,可以说MMM在公司数据库高速发展过程中起到了很大的作用.

基于Consul的数据库高可用架构 - yayun - 博客园

- -
      几个月没有更新博客了,已经长草了,特意来除草. 本次主要分享如何利用consul来实现redis以及mysql的高可用. 以前的公司mysql是单机单实例,高可用MHA加vip就能搞定,新公司mysql是单机多实例,那么显然这个方案不适用,后来也实现了故障切换调用dns api来修改域名记录,但是还是没有利用consul来实现高可用方便,后面会说明优势.

工商银行MySQL数据库架构解密

- -
点击▲关注 “IT168企业级”给公众号置顶. 作者:林承军   编辑:爱可生. 摘要:本文根据DTCC数据库大会分享内容整理而成,将介绍工行 IT 架构转型中传统 OLTP 数据库架构面临的挑战和诉求,构建基于 MySQL 分布式企业级解决方案实践历程,包括技术选择、高可用设计、两地三中心容灾、运维管理、资源使用效率等方面的思考和实践经验,同时也介绍了工行转型的成效以及对后续工作的一些思考.