Hive是一个基于Hadoop的数据仓库平台。通过hive,我们可以方便地进行ETL的工作。hive定义了一个类似于SQL的查询语言:HQL,能够将用户编写的QL转化为相应的Mapreduce程序基于Hadoop执行。本文讲解如何搭建一个Hive平台。假设我们有3台机器:hadoop1,hadoop2,hadoop3。并且都安装好了Hadoop-0.19.2(hive支持的Hadoop版本很多),hosts文件配置正确。Hive部署在hadoop1机器上。最简单,最快速的部署方案在Hadoop-0.19.2中自带了hive的文件。版本为0.3.0。我们首先启动Hadoop:sh$HADOOP_HOME/bin/start-all.sh然后启动hive即可:sh$HADOOP_HOME/contrib/hive/bin/hive这个时候,我们的Hive的命令行接口就启动起来了,你可以直接输入命令来执行相应的hive应用了。这种部署方式使用derby的嵌入式模式,虽然简单快速,但是无法提供多用户同时访问,所以只能用于简单的测试,无法实际应用于生产环境。所以,我们要修改hive的默认配置,提高可用性。搭建多用户的,提供web界面的部署方案目前只用比较多hive版本是hive-0.4.1。我们将使用这个版本来搭建hive平台。首先,下载hive-0.4.1:svnco然后,修改下载文件里面的编译选项文件shims/ivy.xml,将其修改为如下内容(对应的Hadoop版本为0.19.2)ivy-moduleversion=2.0infoorganisation=org.apache.hadoop.hivemodule=shims/dependenciesdependencyorg=hadoopname=corerev=0.19.2artifactname=hadooptype=sourceext=tar.gz//dependencyconflictmanager=all//dependencies/ivy-module接下来,我们使用ant去编译hive:antpackage编译成功后,我们会发现在build/dist目录中就是编译成功的文件。将这个目录设为$HIVE_HOME修改conf/hive-default.xml文件,主要修改内容如下:propertynamejavax.jdo.option.ConnectionURL/namevaluejdbc:derby://hadoop1:1527/metastore_db;create=true/valuedescriptionJDBCconnectstringforaJDBCmetastore/description/propertypropertynamejavax.jdo.option.ConnectionDriverName/namevalueorg.apache.derby.jdbc.ClientDriver/valuedescriptionDriverclassnameforaJDBCmetastore/description/property在hadoop1机器上下载并安装apachederby数据库:wget解压derby后,设置$DERBY_HOME然后启动derby的networkServer:sh$DERBY_HOME/bin/startNetworkServer-h0.0.0.0接下来,将$DERBY_HOME/lib目录下的derbyclient.jar与derbytools.jar文件copy到$HIVE_HOME/lib目录下。启动Hadoop:sh$HADOOP_HOME/bin/start-all.sh最后,启动hive的web界面:sh$HIVE_HOME/bin/hive--servicehwi这样,我们的hive就部署完成了。我们可以直接在浏览器中输入:进行访问了(如果不行话,请将hadoop1替换为实际的ip地址,如:)。这种部署方式使用derby的c/s模式,允许多用户同时访问,同时提供web界面,方便使用。推荐使用这种部署方案。关注Hive的schema我们上面谈到的2中部署方案都是使用derby数据库来保存hive中的schema信息。我们也可以使用其他的数据库来保存schema信息,如mysql。可以参考这篇文章了解如果使用mysql来替换derby:我们也可以使用HDFS来保存schema信息,具体的做法是修改conf/hive-default.xml,修改内容如下:propertynamehive.metastore.rawstore.impl/namevalueorg.apache.hadoop.hive.metastore.FileStore/valuedescriptionNameoftheclassthatimplementsorg.apache.hadoop.hive.metastore.rawstoreinterface.Thisclassisusedtostoreandretrievalofrawmetadataobjectssuchastable,database/description/property主要分为以下几个部分:用户接口,包括CLI,Client,WUI。元数据存储,通常是存储在关系数据库如mysql,derby中。解释器、编译器、优化器、执行器。Hadoop:用HDFS进行存储,利用MapReduce进行计算。1.用户接口主要有三个:CLI,Client和WUI。其中最常用的是CLI,Cli启动的时候,会同时启动一个Hive副本。Client是Hive的客户端,用户连接至HiveServer。在启动Client模式的时候,需要指出HiveServer所在节点,并且在该节点启动HiveServer。WUI是通过浏览器访问Hive。2.Hive将元数据存储在数据库中,如mysql、derby。Hive中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。3.解释器、编译器、优化器完成HQL查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在HDFS中,并在随后有MapReduce调用执行。4.Hive的数据存储在HDFS中,大部分的查询由MapReduce完成(不包含*的查询,比如select*fromtbl不会生成MapRedcue任务)。Hive元数据存储Hive将元数据存储在RDBMS中,有三种模式可以连接到数据库:SingleUserMode:此模式连接到一个In-memory的数据库Derby,一般用于UnitTest。MultiUserMode:通过网络连接到一个数据库中,是最经常使用到的模式。RemoteServerMode:用于非Java客户端访问元数据库,在服务器端启动一个MetaStoreServer,客户端利用Thrift协议通过MetaStoreServer访问元数据库。Hive的数据存储首先,Hive没有专门的数据存储格式,也没有为数据建立索引,用户可以非常自由的组织Hive中的表,只需要在创建表的时候告诉Hive数据中的列分隔符和行分隔符,Hive就可以解析数据。其次,Hive中所有的数据都存储在HDFS中,Hive中包含以下数据模型:Table,ExternalTable,Partition,Bucket。1.Hive中的Table和数据库中的Table在概念上是类似的,每一个Table在Hive中都有一个相应的目录存储数据。例如,一个表pvs,它在HDFS中的路径为:/wh/pvs,其中,wh是在hive-site.xml中由${hive.metastore.warehouse.dir}指定的数据仓库的目录,所有的Table数据(不包括ExternalTable)都保存在这个目录中。2.Partition对应于数据库中的Partition列的密集索引,但是Hive中Partition的组织方式和数据库中的很不相同。在Hive中,表中的一个Partition对应于表下的一个目录,所有的Partition的数据都存储在对应的目录中。例如:pvs表中包含ds和city两个Partition,则对应于ds=20090801,ctry=US的HDFS子目录为:/wh/pvs/ds=20090801/ctry=US;对应于ds=20090801,ctry=CA的HDFS子目录为;/wh/pvs/ds=20090801/ctry=CA3.Buckets对指定列计算hash,根据hash值切分数据,目的是为了并行,每一个Bucket对应一个文件。将user列分散至32个bucket,首先对user列的值计算hash,对应hash值为0的HDFS目录为:/wh/pvs/ds=20090801/ctry=US/part-00000;hash值为20的HDFS目录为:/wh/pvs/ds=20090801/ctry=US/part-000204.ExternalTable指向已经在HDFS中存在的数据,可以创建Partition。它和Table在元数据的组织上是相同的,而实际数据的存储则有较大的差异。Table的创建过程和数据加载过程(这两个过程可以在同一个语句中完成),在加载数据的过程中,实际数据会被移动到数据仓库目录中;之后对数据对访问将会直接在数据仓库目录中完成。删除表时,表中的数据和元数据将会被同时删除。ExternalTable只有一个过程,加载数据和创建表同时完成(CREATEEXTERNALTABLE……LOCATION),实际数据是存储在LOCATION后面指定的HDFS路径中,并不会移动到数据仓库目录中。当删除一个ExternalTable时,仅删除摘要:由于Hive采用了SQL的查询语言HQL,因此很容易将Hive理解为数据库。其实从结构上来看,Hive和数据库除了拥有类似的查询语言,再无类似之处。本文将从多个方面来阐述Hive和数据库的差异。数据库可以用在Online的应用中,但是Hive是为数据仓库而设计的,清楚这一点,有助于从应用角度理解Hive的特性。Hive和数据库的比较查询语言HQLSQL数据存储位置HDFSRawDevice或者LocalFS数据格式用户定义系统决定数据更新支持不支持索引无有执行MapRedcueExecutor执行延迟高低可扩展性高低数据规模大小1.查询语言。由于SQL被广泛的应用在数据仓库中,因此,专门针对Hive的特性设计了类SQL的查询语言HQL。熟悉SQL开发的开发者可以很方便的使用Hive进行开发。2.数据存储位置。Hive是建立在Hadoop之上的,所有Hive的数据都是存储在HDFS中的。而数据库则可以将数据保存在块设备或者本地文件系统中。3.数据格式。Hive中没有定义专门的数据格式,数据格式可以由用户指定,用户定义数据格式需要指定三个属性:列分隔符(通常为空格、”\t”、”\x00