以几个常见的大表为案例,说明分库分表如何落地!

本文出自:匠心零度 微信公众号;阿飞的博客 微信公众号;

分库分表第一步也是最重要的一步,即sharding column的选取,sharding column选择的好坏将直接决定整个分库分表方案最终是否成功。而sharding column的选取跟业务强相关,笔者认为选择sharding column的方法最主要分析你的API流量,优先考虑流量大的API,将流量比较大的API对应的SQL提取出来,将这些SQL共同的条件作为sharding column。例如一般的OLTP系统都是对用户提供服务,这些API对应的SQL都有条件用户ID,那么,用户ID就是非常好的sharding column

这里列举分库分表的几种主要处理思路:

  1. 只选取一个sharding column进行分库分表 ;
  2. 多个sharding column多个分库分表;
  3. sharding column分库分表 + es

订单表

订单表几个核心字段一般如下:

订单表
订单表

以阿里订单系统为例(参考《企业IT架构转型之道:阿里巴巴中台战略思想与架构实现》),它选择了三个column作为三个独立的sharding column,即:order_id,user_id,merchant_code。user_id和merchant_code就是买家ID和卖家ID,因为阿里的订单系统中买家和卖家的查询流量都比较大,并且查询对实时性要求都很高。而根据order_id进行分库分表,应该是根据order_id的查询也比较多。

这里还有一点需要提及,多个sharding-column的分库分表是冗余全量还是只冗余关系索引表,需要我们自己权衡。

冗余全量的情况如下–每个sharding列对应的表的数据都是全量的,这样做的优点是不需要二次查询,性能更好,缺点是比较浪费存储空间(浅绿色字段就是sharding-column):

冗余全量
冗余全量

冗余关系索引表的情况如下–只有一个sharding column的分库分表的数据是全量的,其他分库分表只是与这个sharding column的关系表,这样做的优点是节省空间,缺点是除了第一个sharding column的查询,其他sharding column的查询都需要二次查询,这三张表的关系如下图所示(浅绿色字段就是sharding column):

表之间的关系图
表之间的关系图

冗余全量表PK.冗余关系表

  1. 速度对比:冗余全量表速度更快,冗余关系表需要二次查询,即使有引入缓存,还是多一次网络开销;
  2. 存储成本:冗余全量表需要几倍于冗余关系表的存储成本;
  3. 维护代价:冗余全量表维护代价更大,涉及到数据变更时,多张表都要进行修改。

总结:选择冗余全量表还是索引关系表,这是一种架构上的trade off,两者的优缺点明显,阿里的订单表是冗余全量表。

用户表

用户表几个核心字段一般如下:

表之间的关系图
表之间的关系图

一般用户登录场景既可以通过mobile_no,又可以通过email,还可以通过username进行登录。但是一些用户相关的API,又都包含user_id,那么可能需要根据这4个column都进行分库分表,即4个列都是sharding-column

账户表

账户表几个核心字段一般如下:

账户表
账户表

与账户表相关的API,一般条件都有account_no,所以以account_no作为sharding-column即可。

复杂查询

上面提到的都是条件中有sharding columnSQL执行。但是,总有一些查询条件是不包含sharding column的,同时,我们也不可能为了这些请求量并不高的查询,无限制的冗余分库分表。那么这些条件中没有sharding columnSQL怎么处理?以sharding-jdbc为例,有多少个分库分表,就要并发路由到多少个分库分表中执行,然后对结果进行合并。具体如何合并,可以看笔者sharding-jdbc系列文章,有分析源码讲解合并原理。

这种条件查询相对于有sharding column的条件查询性能很明显会下降很多。如果有几十个,甚至上百个分库分表,只要某个表的执行由于某些因素变慢,就会导致整个SQL的执行响应变慢,这非常符合木桶理论。

更有甚者,那些运营系统中的模糊条件查询,或者上十个条件筛选。这种情况下,即使单表都不好创建索引,更不要说分库分表的情况下。那么怎么办呢?这个时候大名鼎鼎的elasticsearch,即es就派上用场了。将分库分表所有数据全量冗余到es中,将那些复杂的查询交给es处理。

淘宝我的所有订单页面如下,筛选条件有多个,且商品标题可以模糊匹配,这即使是单表都解决不了的问题(索引满足不了这种场景),更不要说分库分表了:

条件筛选
条件筛选

所以,以订单表为例,整个架构如下:

archeitecture
archeitecture

具体情况具体分析:多sharding column不到万不得已的情况下最好不要使用,成本较大,上面提到的用户表笔者就不太建议使用。因为用户表有一个很大的特点就是它的上限是肯定的,即使全球70亿人全是你的用户,这点数据量也不大,所以笔者更建议采用单sharding column + es的模式简化架构。

es + HBase简要

这里需要提前说明的是,solr+HBase结合的方案在社区中出现的频率可能更高,本篇文章为了保持一致性,所有全文索引方案选型都是es。至于es+HBasesolr+HBase孰优孰劣,或者说essolr孰优孰劣,不是本文需要讨论的范畴,事实上也没有太多讨论的意义。essolr本就是两个非常优秀且旗鼓相当的中间件。

如果抛开选型过程中所有历史包袱,单论es+HBasesolr+HBase的优劣,很明显后者是更好的选择。solr+HBase高度集成,引入索引服务后我们最关心,也是最重要的索引一致性问题,solr+HBase已经有了非常成熟的解决方案一一Lily HBase Indexer

延伸

阿里云上的云数据库HBase版也是借助solr实现全文索引,有兴趣的同学可以戳链接了解更多:https://help.aliyun.com/product/49055.html?spm=5176.124785.631202.con1.603452c0cz7bj2

es + HBase原理

刚刚讨论到上面的以MySQL为核心,分库分表+es的方案,随着数据量越来越来,虽然分库分表可以继续成倍扩容,但是这时候压力又落到了es这里,这个架构也会慢慢暴露出问题!

一般订单表,积分明细表等需要分库分表的核心表都会有好几十列,甚至上百列(假设有50列),但是整个表真正需要参与条件索引的可能就不到10个条件(假设有10列)。这时候把50个列所有字段的数据全量索引到es中,对es集群有很大的压力,后面的es分片故障恢复也会需要很长的时间。

这个时候我们可以考虑减少es的压力,让es集群有限的资源尽可能保存条件检索时最需要的最有价值的数据,即只把可能参与条件检索的字段索引到es中,这样整个es集群压力减少到原来的1/5(核心表50个字段,只有10个字段参与条件),而50个字段的全量数据保存到HBase中,这就是经典的es+HBase组合方案,即索引与数据存储隔离的方案

Hadoop体系下的HBase存储能力我们都知道是海量的,而且根据它的rowkey查询性能那叫一个快如闪电。而es的多条件检索能力非常强大。这个方案把es和HBase的优点发挥的淋漓尽致,同时又规避了它们的缺点,可以说是一个扬长避免的最佳实践。

它们之间的交互大概是这样的:先根据用户输入的条件去es查询获取符合过滤条件的rowkey值,然后用rowkey值去HBase查询,后面这一查询步骤的时间几乎可以忽略,因为这是HBase最擅长的场景,交互图如下所示:

es+HBase
es+HBase

总结

最后,对几种方案总结如下(sharding column简称为sc):

- 单个sc 多个sc sc+es sc+es+HBase
适用场景 单一 一般 比较广泛 非常广泛
查询及时性 及时 及时 比较及时 比较及时
存储能力 一般 一般 较大 海量
代码成本 很小 较大 一般 一般
架构复杂度 简单 一般 较难 非常复杂

总之,对于海量数据,且有一定的并发量的分库分表,绝不是引入某一个分库分表中间件就能解决问题,而是一项系统的工程。需要分析整个表相关的业务,让合适的中间件做它最擅长的事情。例如有sharding column的查询走分库分表,一些模糊查询,或者多个不固定条件筛选则走es,海量存储则交给HBase

做了这么多事情后,后面还会有很多的工作要做,比如数据同步的一致性问题,还有运行一段时间后,某些表的数据量慢慢达到单表瓶颈,这时候还需要做冷数据迁移。总之,分库分表是一项非常复杂的系统工程。任何海量数据的处理,都不是简单的事情,做好战斗的准备吧!

QA

  • 在这种架构下写数据,是不是意味着要向多个sc,eshbase中都写入,具体流程是怎样的呢?

    要保持一致,使用mq就行了。

  • ES的索引什么时候更新更合适?

    ES mapping配置好,数据插入就建啦

  • sc+es+hbase方案中的sc怎么用?es+hbase不就行吗?

    没有什么不行的,只是什么更合适,有sharding column的查询走分库分表,一些模糊查询,或者多个不固定条件筛选则走es,海量存储则交给HBase