HBase性能优化方法总结

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

HBase性能优化方法总结本文主要是从HBase应用程序设计与开发的角度,总结几种常用的性能优化方法。1.表的设计1.1Pre-CreatingRegions默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入数据的时候,所有的HBase客户端都向这一个region写数据,直到这个region足够大了才进行切分。一种可以加快批量写入速度的方法是通过预先创建一些空的regions,这样当数据写入HBase时,会按照region分区情况,在集群内做数据的负载均衡。有关预分区,详情参见:TableCreation:Pre-CreatingRegions,下面是一个例子:[html]viewplaincopy1.publicstaticbooleancreateTable(HBaseAdminadmin,HTableDescriptortable,byte[][]splits)2.throwsIOException{3.try{4.admin.createTable(table,splits);5.returntrue;6.}catch(TableExistsExceptione){7.logger.info(table+table.getNameAsString()+alreadyexists);8.//thetablealreadyexists...9.returnfalse;10.}11.}12.13.publicstaticbyte[][]getHexSplits(StringstartKey,StringendKey,intnumRegions){14.byte[][]splits=newbyte[numRegions-1][];15.BigIntegerlowestKey=newBigInteger(startKey,16);16.BigIntegerhighestKey=newBigInteger(endKey,16);17.BigIntegerrange=highestKey.subtract(lowestKey);18.BigIntegerregionIncrement=range.divide(BigInteger.valueOf(numRegions));19.lowestKey=lowestKey.add(regionIncrement);20.for(inti=0;inumRegions-1;i++){21.BigIntegerkey=lowestKey.add(regionIncrement.multiply(BigInteger.valueOf(i)));22.byte[]b=String.format(%016x,key).getBytes();23.splits[i]=b;24.}25.returnsplits;26.}1.2RowKeyHBase中rowkey用来检索表中的记录,支持以下三种方式:通过单个rowkey访问:即按照某个rowkey键值进行get操作;通过rowkey的range进行scan:即通过设置startRowKey和endRowKey,在这个范围内进行扫描;全表扫描:即直接扫描整张表中所有行记录。在HBase中,rowkey可以是任意字符串,最大长度64KB,实际应用中一般为10~100bytes,存为byte[]字节数组,一般设计成定长的。rowkey是按照字典序存储,因此,设计rowkey时,要充分利用这个排序特点,将经常一起读取的数据存储到一块,将最近可能会被访问的数据放在一块。举个例子:如果最近写入HBase表中的数据是最可能被访问的,可以考虑将时间戳作为rowkey的一部分,由于是字典序排序,所以可以使用Long.MAX_VALUE–timestamp作为rowkey,这样能保证新写入的数据在读取时可以被快速命中。1.3ColumnFamily不要在一张表里定义太多的columnfamily。目前Hbase并不能很好的处理超过2~3个columnfamily的表。因为某个columnfamily在flush的时候,它邻近的columnfamily也会因关联效应被触发flush,最终导致系统产生更多的I/O。感兴趣的同学可以对自己的HBase集群进行实际测试,从得到的测试结果数据验证一下。1.4InMemory创建表的时候,可以通过HColumnDescriptor.setInMemory(true)将表放到RegionServer的缓存中,保证在读取的时候被cache命中。1.5MaxVersion创建表的时候,可以通过HColumnDescriptor.setMaxVersions(intmaxVersions)设置表中数据的最大版本,如果只需要保存最新版本的数据,那么可以设置setMaxVersions(1)。1.6TimeToLive创建表的时候,可以通过HColumnDescriptor.setTimeToLive(inttimeToLive)设置表中数据的存储生命期,过期数据将自动被删除,例如如果只需要存储最近两天的数据,那么可以设置setTimeToLive(2*24*60*60)。1.7Compact&Split在HBase中,数据在更新时首先写入WAL日志(HLog)和内存(MemStore)中,MemStore中的数据是排序的,当MemStore累计到一定阈值时,就会创建一个新的MemStore,并且将老的MemStore添加到flush队列,由单独的线程flush到磁盘上,成为一个StoreFile。于此同时,系统会在zookeeper中记录一个redopoint,表示这个时刻之前的变更已经持久化了(minorcompact)。StoreFile是只读的,一旦创建后就不可以再修改。因此Hbase的更新其实是不断追加的操作。当一个Store中的StoreFile达到一定的阈值后,就会进行一次合并(majorcompact),将对同一个key的修改合并到一起,形成一个大的StoreFile,当StoreFile的大小达到一定阈值后,又会对StoreFile进行分割(split),等分为两个StoreFile。由于对表的更新是不断追加的,处理读请求时,需要访问Store中全部的StoreFile和MemStore,将它们按照rowkey进行合并,由于StoreFile和MemStore都是经过排序的,并且StoreFile带有内存中索引,通常合并过程还是比较快的。实际应用中,可以考虑必要时手动进行majorcompact,将同一个rowkey的修改进行合并形成一个大的StoreFile。同时,可以将StoreFile设置大些,减少split的发生。2.写表操作2.1多HTable并发写创建多个HTable客户端用于写操作,提高写数据的吞吐量,一个例子:[html]viewplaincopy1.staticfinalConfigurationconf=HBaseConfiguration.create();2.staticfinalStringtable_log_name=“user_log”;3.wTableLog=newHTable[tableN];4.for(inti=0;itableN;i++){5.wTableLog[i]=newHTable(conf,table_log_name);6.wTableLog[i].setWriteBufferSize(5*1024*1024);//5MB7.wTableLog[i].setAutoFlush(false);8.}2.2HTable参数设置2.2.1AutoFlush通过调用HTable.setAutoFlush(false)方法可以将HTable写客户端的自动flush关闭,这样可以批量写入数据到HBase,而不是有一条put就执行一次更新,只有当put填满客户端写缓存时,才实际向HBase服务端发起写请求。默认情况下autoflush是开启的。2.2.2WriteBuffer通过调用HTable.setWriteBufferSize(writeBufferSize)方法可以设置HTable客户端的写buffer大小,如果新设置的buffer小于当前写buffer中的数据时,buffer将会被flush到服务端。其中,writeBufferSize的单位是byte字节数,可以根据实际写入数据量的多少来设置该值。2.2.3WALFlag在HBae中,客户端向集群中的RegionServer提交数据时(Put/Delete操作),首先会先写WAL(WriteAheadLog)日志(即HLog,一个RegionServer上的所有Region共享一个HLog),只有当WAL日志写成功后,再接着写MemStore,然后客户端被通知提交数据成功;如果写WAL日志失败,客户端则被通知提交失败。这样做的好处是可以做到RegionServer宕机后的数据恢复。因此,对于相对不太重要的数据,可以在Put/Delete操作时,通过调用Put.setWriteToWAL(false)或Delete.setWriteToWAL(false)函数,放弃写WAL日志,从而提高数据写入的性能。值得注意的是:谨慎选择关闭WAL日志,因为这样的话,一旦RegionServer宕机,Put/Delete的数据将会无法根据WAL日志进行恢复。2.3批量写通过调用HTable.put(Put)方法可以将一个指定的rowkey记录写入HBase,同样HBase提供了另一个方法:通过调用HTable.put(ListPut)方法可以将指定的rowkey列表,批量写入多行记录,这样做的好处是批量执行,只需要一次网络I/O开销,这对于对数据实时性要求高,网络传输RTT高的情景下可能带来明显的性能提升。2.4多线程并发写在客户端开启多个HTable写线程,每个写线程负责一个HTable对象的flush操作,这样结合定时flush和写buffer(writeBufferSize),可以既保证在数据量小的时候,数据可以在较短时间内被flush(如1秒内),同时又保证在数据量大的时候,写buffer一满就及时进行flush。下面给个具体的例子:[html]viewplaincopy1.for(inti=0;ithreadN;i++){2.Threadth=newThread(){3.publicvoidrun(){4.while(true){5.try{6.sleep(1000);//1second7.}catch(InterruptedExceptione){8.e.printStackTrace();9.}10.synchronized(wTableLog[i]){11.try{12.wTableLog[i].flushCommits();13.}catch(IOExceptione){14.e.printStackTrace();15.}16.}17.}18.}19.};20.th.setDaemon(true);21.th.start();22.}3.读表操作3.1多HTable并发读创建多个HTable客户端用于读操作,提高读数据的吞吐量,一个例子:[html]viewplaincopy1.staticfinalConfigurationconf=HBaseConfiguration.create();2.staticfinalStringtable_log_name=“user_log”;3.rTableLog=newHTable[tableN];4.for(inti=0;itableN;i++){5.rTableLog[i]=newHTable(conf,table_log_name);6.rTableLog[i].setScannerCaching(50);7.}3.2HTabl

1 / 16
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功