淘宝在hbase中的应用和优化

本文来自于NoSQLFan联合作者@koven2049,他在淘宝从事Hadoop及HBase相关的应用和优化。

对Hadoop、HBase都有深入的了解,本文就是其在工作中对HBase的应用优化小结,分享给大家。

前言Top

hbase是从 hadoop中分离出来的apache顶级开源项目。因为它非常好地用java实现了google的bigtable系统大部分特性。因此在数据量猛增的今天非常受到欢迎。

对于淘宝而言,随着市场规模的扩大。产品与技术的发展。业务数据量越来越大。对海量数据的高效插入和读取变得越来越重要。

因为淘宝拥有或许是国内最大的单一hadoop集群(云梯),因此对hadoop系列的产品有比較深入的了解,也就自然希望使用hbase来做这样一种海量数据读写服务。

本篇文章将对淘宝近期一年来在online应用上使用和优化hbase的情况做一次小结。

原因Top

为什么要使用hbase? 

淘宝在2011年之前全部的后端持久化存储基本上都是在mysql上进行的(不排除少量oracle/bdb/tair/mongdb等),mysql因为开源,而且生态系统良好,本身拥有分库分表等多种解决方式,因此非常长一段时间内都满足淘宝大量业务的需求。

 

可是因为业务的多样化发展。有越来越多的业务系统的需求開始发生了变化。一般来说有下面几类变化: 

  • 数据量变得越来越多。其实如今淘宝差点儿不论什么一个与用户相关的在线业务的数据量都在亿级别,每日系统调用次数从亿到百亿都有,且历史数据不能轻易删除。这须要有一个海量分布式文件系统,能对TB级甚至PB级别的数据提供在线服务
  • 数据量的增长非常快且不一定能准确估计,大多数应用系统从上线起在一段时间内数据量都呈非常快的上升趋势,因此从成本的角度考虑对系统水平扩展能力有比較强烈的需求,且不希望存在单点制约
  • 仅仅须要简单的kv读取。没有复杂的join等需求。但对系统的并发能力以及吞吐量、响应延时有非常高的需求,而且希望系统可以保持强一致性
  • 通常系统的写入非常频繁,尤其是大量系统依赖于实时的日志分析
  • 希望可以高速读取批量数据
  • schema灵活多变。可能常常更新列属性或新增列
  • 希望可以方便使用。有良好且语义清晰的java接口
以上需求综合在一起,我们觉得hbase是一种比較适合的选择。首先它的数据由hdfs天然地做了数据冗余。云梯三年的稳定执行,数据100%可靠己经证明了hdfs集群的安全性。以及服务于海量数据的能力。

其次hbase本身的数据读写服务没有单点的限制,服务能力能够随server的增长而线性增长。达到几十上百台的规模。LSM-Tree模式的设计让hbase的写入性能很良好。单次写入通常在1-3ms内就可以响应完毕,且性能不随数据量的增长而下降。region(相当于数据库的分表)能够ms级动态的切分和移动,保证了负载均衡性。

因为hbase上的数据模型是按rowkey排序存储的,而读取时会一次读取连续的整块数据做为cache,因此良好的rowkey设计能够让批量读取变得十分easy,甚至仅仅须要1次io就能获取几十上百条用户想要的数据。最后,淘宝大部分project师是java背景的同学,因此hbase的api对于他们来说很easy上手,培训成本相对较低。 

当然也必须指出,在大数据量的背景下银弹是不存在的,hbase本身也有不适合的场景。比方。索引仅仅支持主索引(或看成主组合索引)。又比方服务是单点的,单台机器宕机后在master恢复它期间它所负责的部分数据将无法服务等。这就要求在选型上须要对自己的应用系统有足够了解。

应用情况Top

我们从2011年3月開始研究hbase怎样用于在线服务。虽然之前在一淘搜索中己经有了几十节点的离线服务。

这是由于hbase早期版本号的目标就是一个海量数据中的离线服务。

2009年9月公布的0.20.0版本号是一个里程碑,online应用正式成为了hbase的目标,为此hbase引入了zookeeper来做为backupmaster以及regionserver的管理。2011年1月0.90.0版本号是还有一个里程碑。基本上我们今天看到的各大站点,如facebook/ebay/yahoo内所使用于生产的hbase都是基于这一个版本号(fb所採用的0.89版本号结构与0.90.x相近)。bloomfilter等诸多属性增加了进来,性能也有极大提升。基于此。淘宝也选用了0.90.x分支作为线上版本号的基础。

 

第一个上线的应用是数据魔方中的prom。prom原先是基于redis构建的,由于数据量持续增大以及需求的变化,因此我们用hbase重构了它的存储层。准确的说prom更适合0.92版本号的hbase,由于它不仅须要快速的在线读写,更须要count/group by等复杂应用。

但由于当时0.92版本号尚未成熟,因此我们自己单独实现了coprocessor。prom的数据导入是来源于云梯。因此我们每天晚上花半个小时将数据从云梯上写入hbase所在的hdfs,然后在web层做了一个client转发。

经过一个月的数据比对,确认了速度比之redis并未有明显下降,以及数据的准确性,因此得以顺利上线。

 

第二个上线的应用是TimeTunnel。TimeTunnel是一个高效的、可靠的、可扩展的实时传输数据平台,广泛应用于实时日志收集、数据实时监控、广告效果实时反馈、数据库实时同步等领域。它与prom相比的特点是添加了在线写。动态的数据添加使hbase上compact/balance/split/recovery等诸多特性受到了极大的挑战。TT的写入量大约一天20TB,读的量约为此的1.5倍。我们为此准备了20台regionserver的集群,当然底层的hdfs是公用的。数量更为庞大(下文会提到)。每天TT会为不同的业务在hbase上建不同的表,然后往该表上写入数据,即使我们将region的大小上限设为1GB,最大的几个业务也会达到数千个region这种规模。能够说每一分钟都会有数次split。在TT的上线过程中。我们修复了hbase非常多关于split方面的bug。有好几个commit到了hbase社区,同一时候也将社区一些最新的patch打在了我们的版本号上。split相关的bug应该说是hbase中会导致数据丢失最大的风险之中的一个,这一点对于每一个想使用hbase的开发人员来说必须牢记。hbase因为採用了LSM-Tree模型,从架构原理上来说数据差点儿没有丢失的可能,可是在实际使用中不小心慎重就有丢失风险。

原因后面会单独强调。TT在预发过程中我们分别因为Meta表损坏以及split方面的bug以前丢失过数据,因此也单独写了meta表恢复工具。确保今后不发生类似问题(hbase-0.90.5以后的版本号都添加了类似工具)。

另外,因为我们存放TT的机房并不稳定。发生过非常多次宕机事故,甚至发生过假死现象。因此我们也着手改动了一些patch,以提高宕机恢复时间,以及增强了监控的强度。 

CTU以及会员中心项目是两个对在线要求比較高的项目,在这两个项目中我们特别对hbase的慢响应问题进行了研究。hbase的慢响应如今一般归纳为四类原因:网络原因、gc问题、命中率以及client的反序列化问题。

我们如今对它们做了一些解决方式(后面会有介绍),以更好地对慢响应有控制力。

 

和Facebook类似,我们也使用了hbase做为实时计算类项目的存储层。眼下对内部己经上线了部分实时项目,比方实时页面点击系统,galaxy实时交易推荐以及直播间等内部项目,用户则是散布到公司内各部门的运营小二们。与facebook的puma不同的是淘宝使用了多种方式做实时计算层,比方galaxy是使用类似affa的actor模式处理交易数据。同一时候关联商品表等维度表计算排行(TopN),而实时页面点击系统则是基于twitter开源的storm进行开发,后台通过TT获取实时的日志数据。计算流将中间结果以及动态维表持久化到hbase上,比方我们将rowkey设计为url+userid。并读出实时的数据。从而实现实时计算各个维度上的uv。 

最后要特别提一下历史交易订单项目。这个项目实际上也是一个重构项目。目的是从曾经的solr+bdb的方案上迁移到hbase上来。因为它关系到己买到页面。用户使用频率很高,重要程度接近核心应用。对数据丢失以及服务中断是零容忍。它对compact做了优化。避免大数据量的compact在服务时间内发生。新增了定制的filter来实现分页查询,rowkey上相应用进行了巧妙的设计以避免了冗余数据的传输以及90%以上的读转化成了顺序读。眼下该集群存储了超过百亿的订单数据以及数千亿的索引数据。线上故障率为0。 

随着业务的发展,眼下我们定制的hbase集群己经应用到了线上超过二十个应用,数百台server上。包含淘宝首页的商品实时推荐、广泛用于卖家的实时量子统计等应用,而且还有继续增多以及向核心应用靠近的趋势。

部署、运维和监控Top

Facebook之前以前透露过Facebook的hbase架构,能够说是很不错的。如他们将message服务的hbase集群按用户分为数个集群。每一个集群100台server,拥有一台namenode以及分为5个机架,每一个机架上一台zookeeper。能够说对于大数据量的服务这是一种优良的架构。对于淘宝来说,由于数据量远没有那么大,应用也没有那么核心,因此我们採用公用hdfs以及zookeeper集群的架构。每一个hdfs集群尽量不超过100台规模(这是为了尽量限制namenode单点问题)。在其上架设数个hbase集群,每一个集群一个master以及一个backupmaster。公用hdfs的优点是能够尽量降低compact的影响,以及均摊掉硬盘的成本。由于总有集群对磁盘空间要求高,也总有集群对磁盘空间要求低。混合在一起用从成本上是比較合算的。zookeeper集群公用,每一个hbase集群在zk上分属不同的根节点。通过zk的权限机制来保证hbase集群的相互独立。zk的公用原因则不过为了运维方便。 

因为是在线应用。运维和监控就变得更加重要,因为之前的经验接近0,因此非常难招到专门的hbase运维人员。我们的开发团队和运维团队从一開始就非常重视该问题,非常早就開始自行培养。下面讲一些我们的运维和监控经验。 

我们定制的hbase非常重要的一部分功能就是添加监控。hbase本身能够发送ganglia监控数据,仅仅是监控项远远不够,而且ganglia的展示方式并不直观和突出。

因此一方面我们在代码中侵入式地添加了非常多监控点。比方compact/split/balance/flush队列以及各个阶段的耗时、读写各个阶段的响应时间、读写次数、region的open/close,以及详细到表和region级别的读写次数等等。仍然将它们通过socket的方式发送到ganglia中,ganglia会把它们记录到rrd文件里,rrd文件的特点是历史数据的精度会越来越低。因此我们自己编敲代码从rrd中读出对应的数据并持久化到其他地方,然后自己用js实现了一套监控界面。将我们关心的数据以趋势图、饼图等各种方式重点汇总和显示出来,而且能够无精度损失地查看随意历史数据。在显示的同一时候会把部分非常重要的数据,如读写次数、响应时间等写入数据库,实现波动报警等自己定义的报警。经过以上措施,保证了我们总是能先于用户发现集群的问题并及时修复。我们利用redis高效的排序算法实时地将每一个region的读写次数进行排序,能够在高负载的情况下找到详细请求次数排名较高的那些region,并把它们移到空暇的regionserver上去。在高峰期我们能对上百台机器的数十万个region进行实时排序。

 

为了隔离应用的影响,我们在代码层面实现了能够检查不同client过来的连接,而且切断某些client的连接。以在发生问题时。将故障隔离在某个应用内部而不扩大化。mapreduce的应用也会控制在低峰期执行,比方在白天我们会关闭jobtracker等。 

此外,为了保障服务从结果上的可用,我们也会定期跑读写測试、建表測试、hbck等命令。hbck是一个非常实用的工具,只是要注意它也是一个非常重的工操作,因此尽量降低hbck的调用次数。尽量不要并行执行hbck服务。在0.90.4曾经的hbck会有一些机率使hbase宕机。

另外为了确保hdfs的安全性,须要定期执行fsck等以检查hdfs的状态,如block的replica数量等。

 

我们会每天根踪所有线上server的日志。将错误日志所有找出来而且邮件给开发者,以查明每一次error以上的问题原因和fix。直至错误减少为0。另外每一次的hbck结果假设有问题也会邮件给开发者以处理掉。

虽然并非每一次error都会引发问题,甚至大部分error都仅仅是分布式系统中的正常现象,但明确它们问题的解决办法是很重要的。

測试与公布Top

由于是未知的系统,我们从一開始就非常注重測试。

測试从一開始就分为性能測试和功能測试。性能測试主要是注意基准測试,分非常多场景,比方不同混合读写比例,不同k/v大小。不同列族数,不同命中率。是否做presharding等等。每次执行都会持续数小时以得到准确的结果。

因此我们写了一套自己主动化系统,从web上选择不同的场景,后台会自己主动将測试參数传到各台server上去执行。由于是測试分布式系统,因此client也必须是分布式的。 

我们推断測试是否准确的根据是同一个场景跑多次。是否数据。以及执行曲线达到99%以上的重合度,这个工作很烦琐,以至于消耗了许多时间。但后来的事实证明它很有意义。由于我们对它建立了100%的信任,这很重要,比方后期我们的改进哪怕仅仅提高2%的性能也能被准确捕捉到,又比方某次代码改动使compact队列曲线有了一些起伏而被我们看到,从而找出了程序的bug。等等。 

功能測试上则主要是接口測试和异常測试。接口測试一般作用不是非常明显,由于hbase本身的单元測试己经使这部分被覆盖到了。

但异常測试非常重要,我们绝大部分bug改动都是在异常測试中发现的,这帮助我们去掉了非常多生产环境中可能存在的不稳定因素,我们也提交了十几个对应的patch到社区。并受到了重视和commit。分布式系统设计的难点和复杂度都在异常处理上。我们必须觉得系统在通讯的不论什么时候都是不可靠的。某些难以复现的问题我们会通过查看代码大体定位到问题以后,在代码层面强行抛出异常来复现它。事实证明这非常实用。 

为了方便和高速定位问题,我们设计了一套日志收集和处理的程序。以方便地从每台server上抓取对应的日志并按一定规律汇总。

这很重要,避免浪费大量的时间到登录不同的server以寻找一个bug的线索。 

因为hbase社区在不停发展,以及线上或測试环境发现的新的bug,我们须要制定一套有规律的公布模式。它既要避免频繁的公布引起的不稳定。又要避免长期不公布导致生产版本号离开发版本号越来越远或是隐藏的bug爆发。我们强行规定每两周从内部trunk上release一个版本号,该版本号必须通过全部的測试包含回归測试,而且在release后在一个小型的集群上24小时不受甘扰不停地执行。每一个月会有一次公布,公布时採用最新release的版本号,而且将现有的集群按重要性分级公布。以确保重要应用不受新版本号的潜在bug影响。事实证明自从我们引入这套公布机制后,由公布带来的不稳定因素大大下降了,而且线上版本号也能保持不落后太多。

改进和优化Top

Facebook是一家很值得尊敬的公司,他们毫无保留地对外发布了对hbase的全部改造,而且将他们内部实际使用的版本号开源到了社区。facebook线上应用的一个重要特点是他们关闭了split,以减少split带来的风险。

与facebook不同。淘宝的业务数据量相对没有如此庞大。而且因为应用类型很丰富,我们并们并没有要求用户强行选择关闭split,而是尽量去改动split中可能存在的bug。

到眼下为止,尽管我们并不能说全然攻克了这个问题,可是从0.90.2中暴露出来的诸多跟split以及宕机相关的可能引发的bug我们的測试环境上己经被修复到接近了0。也为社区提交了10数个稳定性相关的patch,比較重要的有下面几个: 

还有其他一些。我们主要将patch提交到0.92版本号,社区会有commitor帮助我们backport回0.90版本号。所以社区从0.90.2一直到0.90.6一共公布了5个bugfix版本号后。0.90.6版本号事实上己经比較稳定了。建议生产环境能够考虑这个版本号。

 

split这是一个非常重的事务,它有一个严重的问题就是会改动meta表(当然宕机恢复时也有这个问题)。

假设在此期间发生异常。非常有可能meta表、rs内存、master内存以及hdfs上的文件会发生不一致,导致之后region又一次分配时错误发生。

当中一个错误就是有可能同一个region被两个以上的regionserver所服务,那么就可能出现这一个region所服务的数据会随机分别写到多台rs上,读取的时候也会分别读取,导致数据丢失。想要恢复原状。必须删除掉当中一个rs上的region,这就导致了不得不主动删掉数据,从而引发数据丢失。 

前面说到慢响应的问题归纳为网络原因、gc问题、命中率以及client的反序列化问题。网络原因通常是网络不稳定引起的,只是也有可能是tcp參数设置问题,必须保证尽量降低包的延迟,如nodelay须要设置为true等,这些问题我们通过tcpdump等一系列工具专门定位过,证明tcp參数对包的组装确实会造成慢连接。gc要依据应用的类型来,一般在读比較多的应用中新生代不能设置得太小。命中率极大影响了响应的时间。我们会尽量将version数设为1以添加缓存的容量,良好的balance也能帮助充分应用好每台机器的命中率。我们为此设计了表级别的balance。

 

因为hbase服务是单点的,即宕机一台,则该台机器所服务的数据在恢复前是无法读写的。宕机恢复速度决定了我们服务的可用率。为此主要做了几点优化。首先是将zk的宕机发现时间尽量缩短到1分钟,其次改进了master恢复日志为并行恢复,大大提高了master恢复日志的速度,然后我们改动了openhandler中可能出现的一些超时异常,以及死锁。去掉了日志中可能发生的open…too long等异常。原生的hbase在宕机恢复时有可能发生10几分钟甚至半小时无法重新启动的问题己经被修复掉了。

另外,hdfs层面我们将socket.timeout时间以及重试时间也缩短了,以减少datanode宕机引起的长时间block现象。 

hbase本身读写层面的优化我们眼下并没有做太多的工作,唯一打的patch是region添加时写性能严重下降的问题。由于由于hbase本身良好的性能。我们通过大量測试找到了各种应用场景中比較优良的參数并应用于生产环境后,都基本满足需求。

只是这是我们接下来的重要工作。

将来计划Top

我们眼下维护着淘宝内基于社区0.90.x而定制的hbase版本号。

接下来除继续fix它的bug外,会维护基于0.92.x改动的版本号。之所以这样。是由于0.92.x和0.90.x的兼容性并非很好,并且0.92.x改动掉的代码许多。粗略统计会超过30%。

0.92中有我们很看重的一些特性。 

  • 0.92版本号改进了hfile为hfileV2,v2版本号的特点是将索引以及bloomfilter进行了大幅改造,以支持单个大hfile文件。

    现有的HFile在文件大到一定程度时。index会占用大量的内存,而且载入文件的速度会因此下降许多。而假设HFile不增大的话,region就无法扩大,从而导致region数量许多。这是我们想尽量避免的事。

  • 0.92版本号改进了通讯层协议。在通讯层中添加了length,这很重要。它让我们能够写出nio的客户端,使反序列化不再成为影响client性能的地方。

  • 0.92版本号添加了coprocessor特性。这支持了少量想要在rs上进行count等的应用。
  • 还有其他许多优化,比方改进了balance算法、改进了compact算法、改进了scan算法、compact变为CF级别、动态做ddl等等特性。
除了0.92版本号外,0.94版本号以及最新的trunk(0.96)也有非常多不错的特性,0.94是一个性能优化版本号。

它做了非常多革命性工作,比方去掉root表,比方HLog进行压缩,replication上支持多个slave集群。等等。

 

我们自己也有一些优化,比方自行实现的二级索引、backup策略等都会在内部版本号上实现。 

另外值得一提的是hdfs层面的优化也很重要,hadoop-1.0.0以及cloudera-3u3的改进对hbase很有帮助。比方本地化读、checksum的改进、datanode的keepalive设置、namenode的HA策略等。

我们有一支优秀的hdfs团队来支持我们的hdfs层面工作。比方定位以及fix一些hdfs层面的bug,帮助提供一些hdfs上參数的建议,以及帮助实现namenode的HA等。最新的測试表明。3u3的checksum+本地化读能够将随机读性能提升至少一倍。 

我们正在做的一件有意义的事是实时监控和调整regionserver的负载。可以动态地将负载不足的集群上的服务器挪到负载较高的集群中,而整个过程对用户全然透明。

 

总的来说,我们的策略是尽量和社区合作,以推动hbase在整个apache生态链以及业界的发展。使其能更稳定地部署到很多其它的应用中去,以减少使用门槛以及使用成本。

原文地址:https://www.cnblogs.com/blfbuaa/p/6943420.html