HBASE安装及客户端编程配置
HBase的安装、配置、管理与编程

46. NavigableMap<byte[],NavigableMap> columnMap = nMap.get(Bytes.toBytes("description"));
在namenode节点执行bin/hbase-daemon.sh,启动master。执行bin/start-hbase.sh和bin/stop-hbase.sh 脚本启动和停止HBase服务。
接口说明
HBase按列存储结构化数据,支持建表、插入记录、查询记录、删除记录和索引操作等等,不支持连接和更新操作。
(1),在namenode节点新建zookeeper目录,在该目录下新建myid文件。
(2),在zookeeper-3.2.1/conf目录下,拷贝zoo_sample.cfg为zoo.cfg。在zoo.cfg中将dataDir改为/home/hdfs/zookeeper,在文件末位添加所有的主机:
31. config.set("hbase.zookeeper.quorum", "10.192.1.1");
32.
33. HTable table = new HTable(config, "commodity");
34.
35. System.out.println("Get Spin's commodity info");
PC-4 Suse Linux 9 10.192.1.4
hbase连接参数

HBase是一种分布式的、可伸缩的、大数据存储服务,使用Hadoop的HDFS作为底层存储。
要连接HBase,需要配置一些参数,以下是一些常见的连接参数:
1.hbase.zookeeper.quorum: 指定ZooKeeper集群的地址,HBase通过
ZooKeeper进行协调。
2.hbase.zookeeper.property.clientPort: 指定ZooKeeper的端口号,默认
为2181。
3.hbase.master: 指定HBase主服务器的地址和端口号,格式为
hostname:port。
4.hbase.zookeeper.session.timeout: 指定ZooKeeper的会话超时时间,单
位为毫秒。
5.hbase.client.scanner.caching: 指定扫描器缓存大小,可以提高扫描性
能。
6.hbase.client.keyvalue.maxsize: 指定单个键值对的最大大小,超过此大
小的键值对将不会被存储。
7.hbase.client.retries.number: 指定客户端重试次数,当与HBase服务器
通信失败时可以尝试重新连接。
这些参数可以在连接HBase时进行配置,以便更好地控制连接和通信的行为。
具体的参数值取决于实际需求和环境配置。
HBase_官方文档(中文)

HBase官方文档Copyright © 2010 Apache Software Foundation,盛大游戏-数据仓库团队-颜开(译)Abstract这是Apache HBase的官方文档, Hbase是一个分布式,版本化(versioned),构建在Apache Hadoop和Apache ZooKeeper上的列数据库.我(译者)熟悉Hbase的源代码,从事Hbase的开发运维工作,如果有什么地方不清楚,欢迎一起讨论。
邮箱yankaycom@Table of Contents序1. 入门1.1. 介绍1.2. 快速开始1.2.1. 下载解压最新版本1.2.2. 启动 HBase1.2.3. Shell 练习1.2.4. 停止 HBase1.2.5. 下一步该做什么1.3. 慢速开始(相对快速开始)1.3.1. 需要的软件1.3.2. HBase运行模式:单机和分布式1.3.3. 配置例子2. 升级2.1. 从HBase 0.20.x or 0.89.x 升级到 HBase 0.90.x3. 配置3.1. hbase-site.xml 和 hbase-default.xml3.1.1. HBase 默认配置3.2. hbase-env.sh3.3. log4j.properties3.4. 重要的配置3.5. 必须的配置3.6. 推荐的配置3.6.1. zookeeper.session.timeout3.6.2. hbase.regionserver.handler.count3.6.3. 大内存机器的配置3.6.4. LZO 压缩3.6.5. 更大的 Regions3.6.6. 管理 Splitting3.7. 连接Hbase集群的客户端配置和依赖3.7.1. Java客户端配置4. The HBase Shell4.1. 使用脚本4.2. Shell 技巧4.2.1. irbrc4.2.2. LOG 时间转换4.2.3. Debug5. 构建 HBase5.1. 将一个 HBase release 加入到 Apache's Maven Repository6. Developers6.1. IDEs6.1.1. Eclipse6.2. 单元测试6.2.1. Mocito7. HBase 和 MapReduce7.1. 默认 HBase MapReduce 分割器(Splitter)7.2. HBase Input MapReduce 例子7.3. 在一个MapReduce Job中访问其他的HBase Tables7.4. 预测执行8. HBase 的 Schema 设计8.1. Schema 创建8.2. column families的数量8.3. 单调递增Row Keys/时序数据(log)8.4. 尽量最小化row和column的大小8.5. 版本的时间9. Metrics9.1. Metric 安装9.2. RegionServer Metrics9.2.1. hbase.regionserver.blockCacheCount9.2.2. hbase.regionserver.blockCacheFree9.2.3. hbase.regionserver.blockCacheHitRatio9.2.4. hbase.regionserver.blockCacheSize9.2.5. pactionQueueSize9.2.6. hbase.regionserver.fsReadLatency_avg_time9.2.7. hbase.regionserver.fsReadLatency_num_ops9.2.8. hbase.regionserver.fsSyncLatency_avg_time9.2.9. hbase.regionserver.fsSyncLatency_num_ops9.2.10. hbase.regionserver.fsWriteLatency_avg_time9.2.11. hbase.regionserver.fsWriteLatency_num_ops9.2.12. hbase.regionserver.memstoreSizeMB9.2.13. hbase.regionserver.regions9.2.14. hbase.regionserver.requests9.2.15. hbase.regionserver.storeFileIndexSizeMB9.2.16. hbase.regionserver.stores9.2.17. hbase.regionserver.storeFiles10. 跨集群复制11. 数据模型11.1. 概念视图11.2. 物理视图11.3. 表11.4. 行11.5. Column Family11.6. Cells11.7. 版本11.7.1. Hbase的操作(包含版本操作)11.7.2. 现有的限制12. 架构12.1. 客户端12.1.1. 连接12.1.2. 写缓冲和批量操作12.1.3. Filters12.2. Daemons12.2.1. Master12.2.2. RegionServer12.3. Regions12.3.1. Region大小12.3.2. Region Splits12.3.3. Region负载均衡12.3.4. Store12.4. Write Ahead Log (WAL)12.4.1. 目的12.4.2. WAL Flushing12.4.3. WAL Splitting13. 性能调优13.1. Java13.1.1. 垃圾收集和HBase13.2. 配置13.2.1. Regions的数目13.2.2. 管理压缩13.2.3. 压缩13.2.4. hbase.regionserver.handler.count13.2.5. hfile.block.cache.size13.2.6. hbase.regionserver.global.memstore.upperLimit13.2.7. hbase.regionserver.global.memstore.lowerLimit13.2.8. hbase.hstore.blockingStoreFiles13.2.9. hbase.hregion.memstore.block.multiplier13.3. Column Families的数目13.4. 数据聚集13.5. 批量Loading13.5.1. Table创建: 预创建Regions13.6. HBase客户端13.6.1. AutoFlush13.6.2. Scan Caching13.6.3. Scan 属性选择13.6.4. 关闭 ResultScanners13.6.5. 块缓存13.6.6. Row Keys的负载优化14. Bloom Filters14.1. 配置14.1.1. HColumnDescriptor 配置14.1.2. io.hfile.bloom.enabled 全局关闭开关14.1.3. io.hfile.bloom.error.rate14.1.4. io.hfile.bloom.max.fold14.2. Bloom StoreFile footprint14.2.1. StoreFile中的BloomFilter, FileInfo数据结构14.2.2. 在 StoreFile 元数据中的BloomFilter entries15. Hbase的故障排除和Debug15.1. 一般准则15.2. Logs15.2.1. Log 位置15.3. 工具15.3.1. 15.3.2. tail15.3.3. top15.3.4. jps15.3.5. jstack15.3.6. OpenTSDB15.3.7. clusterssh+top15.4. 客户端15.4.1. ScannerTimeoutException15.5. RegionServer15.5.1. 启动错误15.5.2. 运行时错误15.5.3. 终止错误15.6. Master15.6.1. 启动错误15.6.2. 终止错误A. 工具A.1. HBase hbckA.2. HFile 工具A.3. WAL ToolsA.3.1. HLog 工具A.4. 压缩工具A.5. Node下线A.5.1. 依次重启B. HBase中的压缩B.1. 测试压缩工具B.2. hbase.regionserver.codecsB.3. LZOB.4. GZIPC. FAQD. YCSB: 雅虎云服务测试和HbaseIndexList of Tables11.1. 表 webtable11.2. ColumnFamily anchor11.3. ColumnFamily contents序这本书是HBase的官方指南。
hbase连接参数

HBase连接参数是用于连接HBase数据库的配置参数,涵盖了定义、用法、重点、难点和注意事项等方面。
下面将详细介绍这些参数,并结合应用案例进行说明。
1.定义HBase连接参数是指在客户端连接HBase时需要配置的参数,用于建立与HBase服务器的连接,并指定客户端与服务器之间的通信方式。
2.用法HBase连接参数通常在客户端应用程序中设置,用于指定HBase服务器的地址、端口号以及其他连接相关的配置。
例如,在Java中使用HBase客户端连接HBase时,需要创建一个Configuration对象,并通过set方法设置各个连接参数。
3.重点HBase连接参数的重点包括以下几个方面:●HBase服务器的地址和端口号:这是连接HBase服务器的必要参数,用于指定HBase服务器的网络地址和监听端口。
●客户端的线程池大小:该参数用于设置客户端连接池的大小,以控制并发连接的数量。
●连接超时时间:指定客户端与服务器之间的连接超时时间,以防止长时间等待无响应的服务器。
●其他高级配置:如心跳检测、压缩等,可根据实际需求进行配置。
4.难点HBase连接参数的难点主要包括以下几点:●客户端与服务器的网络通信问题:需要确保客户端与服务器之间的网络通信正常,避免出现连接超时、丢包等问题。
●参数配置的合理性和性能优化:需要根据实际应用场景和性能需求,合理配置连接参数,并对其进行性能优化,以充分发挥HBase的性能优势。
●HBase的安全性配置:HBase支持Kerberos认证和SASL加密通信,需要正确配置相关参数以确保数据的安全性。
5.注意事项在使用HBase连接参数时,需要注意以下几点:●正确设置HBase服务器的地址和端口号,确保连接的可用性。
●根据实际需求配置线程池大小,避免资源浪费或连接不足的问题。
●根据实际网络状况设置合适的连接超时时间,以避免长时间等待无响应的服务器。
●注意配置安全性相关的参数,如Kerberos认证和SASL加密通信等,以确保数据的安全性。
编辑hbase-site.xml文件的方法

编辑hbase-site.xml文件的方法一、引言HBase是一个开源的、分布式的、可扩展的NoSQL数据库,常用于大数据存储和处理。
hbase-site.xml文件是HBase的配置文件,用于设置HBase的各项参数。
本文将介绍如何编辑hbase-site.xml文件。
二、编辑前的准备工作1. 确认你已经安装并正确配置了HBase环境。
2. 确保你有对HBase配置文件(hbase-site.xml)的写入权限。
1. 打开HBase的配置目录,通常在HBase的安装目录下的"conf"文件夹中。
2. 找到并打开hbase-site.xml文件。
如果文件不存在,你可以创建一个新的。
3. 使用文本编辑器(如Notepad++、Sublime Text等)打开文件,确保文件的编码格式为UTF-8。
4. 开始编辑文件,根据需要修改各项参数。
以下是一些常见的参数及其说明:a. <property>标签下的各个属性,如hbase.rootdir,用于设置HBase的数据存储位置;b. regionserver.wal禄限一址大小,用于设置HBase的数据备份大小;c. maxattempts,用于设置处理任务的最大失败次数;d. master.http-port,用于设置HBase的主服务器的HTTP端口等。
5. 在修改完所有参数后,保存并关闭文件。
6. 在HBase中重启HBase服务以使新的配置生效。
四、注意事项1. 在修改配置文件时,请务必仔细阅读并理解每个参数的含义和影响,再进行修改。
2. 修改后的配置文件应当备份,以防意外情况发生。
3. 如果你对HBase的配置不熟悉,建议在修改前咨询专业人士或查阅相关文档。
4. 在修改过程中,如果遇到任何问题,请及时停止并寻求帮助。
五、总结编辑hbase-site.xml文件是HBase系统管理中非常重要的一步,它直接影响到HBase的运行效率和稳定性。
hbase基本操作

hbase基本操作HBase是一个分布式开源数据库,是Apache Hadoop项目的一部分。
它是一个面向列的NoSQL数据库,可以在非常大的数据集上进行实时读写操作。
HBase有许多不同的用途,包括在大型网站中存储日志数据、高速数据分析、批量处理数据以及许多其他用途。
在本文中,我们将探讨一些基本的HBase操作。
1. 安装和启动HBaseHBase的安装非常简单,您只需要下载并解压HBase软件包即可。
安装完成后,您可以通过以下命令启动HBase:```bin/start-hbase.sh```此命令将启动所有必要的进程以及HBase的主服务器,也称为“RegionServer”。
2. 创建表在HBase中创建表与关系数据库中创建表的过程非常相似。
以下是一个基本的示例:```create 'myTable', 'myColumnFamily'```其中,“myTable”是表名,“myColumnFamily”是列族名。
列族是列的集合。
3. 插入数据注意,HBase使用列族名称和列名来唯一标识列。
在上面的示例中,“myColumnFamily”是列族名称,“column1”是列名,“value1”是列值。
您还可以插入多个列和一行中的多个值。
4. 获取数据此命令将返回表“myTable”中行键为“row1”的所有列。
5. 扫描表扫描表是获取表中所有行的一种简单方法。
以下是一个基本的示例:6. 删除数据要删除HBase表,您可以使用以下命令:此命令将禁用和删除表“myTable”。
总结:HBase是一个非常强大的分布式数据库,可以在大型数据集上进行快速读写操作。
在本文中,我们介绍了一些基本的HBase操作,包括创建表、插入数据、获取数据、扫描表、删除数据和删除表。
这些操作是使用HBase时非常常见的操作。
hbase的安装和基本操作

安装和配置HBase需要按照以下步骤进行:
1. 解压安装包:将HBase安装包解压到指定的目录中。
2. 重命名路径:将解压后的路径重命名为HBase的根目录。
3. 添加环境变量:将HBase的根目录添加到系统的环境变量中,以便在命令行中访问HBase。
4. 配置hbase-env.sh文件:打开HBase根目录下的conf文件夹,找到hbase-env.sh文件,修改其中的配置项,例如HBASE_HEAPSIZE 等。
5. 配置hbase-site.xml文件:打开HBase根目录下的conf文件夹,找到hbase-site.xml文件,修改其中的配置项,例如HBASE_HOME、HBASE_ZOOKEEPER_QUORUM等。
6. 配置regionservers文件:打开HBase根目录下的conf文件夹,找到regionservers文件,添加需要运行的regionserver节点的主机名。
7. 创建hbase.tmp.dir目录:在HBase根目录下创建一个临时目录,用于存储HBase运行时产生的临时文件。
8. 将文件分发到slave节点:将HBase的安装包和配置文件分发到其他slave节点上,以便这些节点可以运行HBase。
9. 修改hbase目录权限:在所有节点上修改HBase目录的权限,确保只有指定的用户可以访问和修改HBase的目录和文件。
完成以上步骤后,您已经成功安装和配置了HBase。
您可以使用HBase 提供的命令行工具或API进行基本操作,例如创建表、插入数据、查询数据等。
熟悉常用的hbase操作实验报告 -回复

熟悉常用的hbase操作实验报告-回复熟悉常用的HBase操作实验报告一、引言HBase是一个面向大数据存储和处理的分布式数据库,其具有高可靠性、高性能、高可扩展性等特点。
本实验报告旨在通过实践来熟悉常用的HBase操作,掌握其基本使用方法和操作流程。
二、实验环境搭建1. 安装HBase首先,我们需要在一台服务器上安装HBase,可以通过从官网下载二进制文件并解压缩来完成安装。
2. 配置HBase在安装完成后,我们需要进行一些配置。
首先,打开`hbase-site.xml`文件进行配置,包括指定Zookeeper的地址,配置HBase的根目录等。
3. 启动HBase在安装和配置完成后,使用`start-hbase.sh`命令启动HBase。
三、HBase基本操作1. 创建表使用HBase shell工具,可以通过`create`命令来创建表。
例如:create 'student', 'info', 'scores'以上命令创建了一个名为`student`的表,该表包括两个列族`info`和`scores`。
2. 插入数据使用`put`命令可以向表中插入数据。
例如:put 'student', '001', 'info:name', 'Tom'put 'student', '001', 'info:age', '18'put 'student', '001', 'scores:math', '95'以上命令向`student`表中插入了一条记录,该记录的行键为`001`,包括列`info:name`、`info:age`和`scores:math`,其对应的值分别为`Tom`、`18`和`95`。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
HBASE 安装一、安装指南二、常见问题一、安装指南Hadoop+Hbase安装配置实录2010-10-12 22:53生产环境:3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63) 注意:hostname设置为master/slave1/slave2操作系统:rhel5.4 x86_64master做为namenonde,将slave1和slave2做为datanode1.在master:(在slave1和slave2上操作和以下相同)vi /etc/hosts192.168.0.61 master192.168.0.62 slave1192.168.0.63 slave22.用root操作3.免密码登录#ssh-keygen -t rsa #建立ssh目录,敲回车到底 ,这一步需要先在每台机器上执行。
在master上#scp ~/.ssh/id_rsa.pub root@slave1:/root/.ssh/id_rsa.pub_m将master 上的密钥传到slave1的/home/hadoop下在slave1上#cat /root/.ssh/id_rsa.pub_m >> ~/.ssh/authorized_keys#chmod 644 ~/.ssh/authorized_keys反复操作第3步,完成master<-->slave1 master<-->slave2的免密码登录这样主节点和从节点之间就可以不用密码直接ssh访问,另外,在启动hadoop 时需要master ssh master,因此,在master的~/.ssh下,也执行下cat id_rsa.pub >> authorized_keys 即可。
4.安装JDK到/usr/local下命名为jdk6然后:编辑三台机器的/etc/profile,增加如下内容export JAVA_HOME=/usr/local/jdk6export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/libexport HADOOP_HOME=/hadoop/hadoopexport HBASE_HOME=/hadoop/hbasePATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin#vi /root/.bashrc增加export HADOOP_CONF_DIR=/hadoop/hadoop-configexport HBASE_CONF_DIR=/hadoop/hbase-config5、防火墙各机器加入iptables策略:#iptables -I INPUT -s 192.168.0.0/255.255.255.0 -j ACCPET#service iptables save-----------------------------------------hadoop配置:1.下载安装#cd /hadoop#wget/apache-mirror//hadoop/core/hadoop-0.20.2/hadoo p-0.20.2.tar.gz#tar -zxvf hadoop-0.20.2.tar.gz#ln -s hadoop-0.20.2 hadoop由于上述目录中hadoop的配置文件和hadoop的安装目录是放在一起的,这样一旦日后升级hadoop版本的时候所有的配置文件都会被覆盖,因此将配置文件与安装目录分离,一种比较好的方法就是建立一个存放配置文件的目录,/hadoop/hadoop-config/,然后将 /hadoop/hadoop/conf/目录中的core-site.xml,slaves,hadoop-env.sh,masters, hdfs-site.xml,mapred-site.xml,这6个文件拷贝到 /hadoop/hadoop-config/目录中,并指定环境变量$HADOOP_CONF_DIR指向该目录。
环境变量在/root/.bashrc 中设定。
#mkdir /hadoop/hadoop-config#cd /hadoop/hadoop/conf/#cp core-site.xml slaves hadoop-env.sh masters hdfs-site.xmlmapred-site.xml /hadoop/hadoop-config/2.修改6个文件masters:masterslaves:slave1slave2#切忌不要创建:/hadoop/hadoop/tmphadoop-env.sh:export JAVA_HOME=/usr/local/jdk6export HADOOP_PID_DIR=/hadoop/hadoop/tmpcore-site.xml:<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name></name><value>hdfs://master:54310</value></property></configuration>#切忌不要创建:/hadoop/hadoop/name#mkdir /hadoop/hadoop/datahdfs-site.xml:<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>.dir</name><value>/hadoop/hadoop/name/</value> #hadoop的name目录路径</property><property><name>dfs.data.dir</name><value>/hadoop/hadoop/data/</value> #hadoop的data目录路径</property><property><name>dfs.replication</name><value>3</value> #指定 HDFS 中每个 Block 被复制的次数,起数据冗余备份的作用。
在典型的生产系统中,这个数常常设置为3</property></configuration>mapred-site.xml:<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>mapred.job.tracker</name><value>hdfs://master:54311/</value></property></configuration>3、格式化namenode#cd /hadoop/hadoop/bin#./hadoop namenode -format#cd /hadoop#scp -r ./* root@slave1:/hadoop/#scp -r ./* root@slave2:/hadoop/到slave1和slave2上,分别重做软链接#cd /hadoop#rm -rf hadoop#ln -s hadoop-0.20.2 hadoop4、启动所有hadoop守护进程# ./start-all.sh说明:在bin/下面有很多启动脚本,可以根据自己的需要来启动。
* start-all.sh 启动所有的Hadoop守护。
包括namenode, datanode, jobtracker, tasktrack* stop-all.sh 停止所有的Hadoop* start-mapred.sh 启动Map/Reduce守护。
包括Jobtracker和Tasktrack * stop-mapred.sh 停止Map/Reduce守护* start-dfs.sh 启动Hadoop DFS守护.Namenode和Datanode* stop-dfs.sh 停止DFS守护[root@master bin]# jps6813 NameNode7278 Jps7164 JobTracker7047 SecondaryNameNode出现4个这样的进程,且datanode没有error,同时访问ui正常才算成功。
ui:http://masterip:50070 --web UI for HDFS name node(s)http://masterip:50030 --web UI for MapReduce job tracker(s)http://slaveip:50060 --web UI for task tracker(s)5、hdfs简单测试#cd /hadoop/hadoop/bin#./hadoop dfs -mkdir testdir#./hadoop dfs -put /root/install.log testdir/install.log-dfs将/root/install.log 存储到hdfs中的testdir中,重命名为install.log-dfs #./hadoop dfs -ls#./hadoop dfs -ls testdir----------------------------------1、hbase安装部署#cd /hadoop#wget //hbase/hbase-0.20.6/hbase-0.20.6.tar.gz #tar -zxvf hbase-0.20.6.tar.gz#ln -s hbase-0.20.6 hbase#mkdir hbase-config#cd /hadoop/hbase/conf/#cp hbase-env.sh hbase-site.xml regionservers /hadoop/hbase-config/2、配置文件修改#mkdir /hadoop/hbase/tmp#vim /hadoop/hbase-config/hbase-env.sh增加export JAVA_HOME=/usr/local/jdk6export HBASE_MANAGES_ZK=trueexport HBASE_PID_DIR=/hadoop/hbase/tmp#vim hbase-site.xml<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><property><name>hbase.rootdir</name><value>hdfs://master:54310/hbase</value> 注意主机名和端口号要与hadoop的dfs name的对应</property><property><name>hbase.cluster.distributed</name><value>true</value></property><property><name>hbase.zookeeper.quorum</name><value>master</value></property><property><name>zookeeper.session.timeout</name><value>60000</value></property><property><name>hbase.zookeeper.property.clientPort</name><value>2222</value></property></configuration>配置hbase服务器名称#vi regionserversslave1slave23、复制hbase文件在master上#cd /hadoop#scp -r hbase-0.20.6 hbase-0.20.6.tar.gz hbase-configroot@slave1:/hadoop/#scp -r hbase-0.20.6 hbase-0.20.6.tar.gz hbase-configroot@slave2:/hadoop/在slave1和slave2上,分别重做软链接#cd /hadoop#ln -s hbase-0.20.6 hbase4、测试在master上启动#cd /hadoop/hbase/bin#./hbase shellHBase Shell; enter 'help<RETURN>' for list of supported commands. Version: 0.20.6, r965666, Mon Jul 19 16:54:48 PDT 2010hbase(main):001:0> create 'test','data'0 row(s) in 1.1920 secondshbase(main):002:0> listtest1 row(s) in 0.0200 secondshbase(main):003:0> quit二、常见问题HBase 官方文档,全面介绍hbase安装配置:/wp-content/hbase/book.html#hbase_default_config urations1 在安装中出现的问题:用./start-hbase.sh启动HBase后,执行hbase shell# bin/hbase shellHBase Shell; enter 'help<RETURN>' for list of supported commands. Version: 0.20.6, rUnknown, Thu Oct 28 19:02:04 CST 2010接着创建表时候出现如下情况:hbase(main):001:0> create 'test',''c NativeException: org.apache.hadoop.hbase.MasterNotRunningException: nulljps下,发现主节点上HMaster没有启动,查理HBase log(logs/hbase-hadoop-master-ubuntu.log)里有下面异常:FATAL org.apache.hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown.java.io.IOException: Call to node1/10.64.56.76:49002 failed on local exception: java.io.EOFException解决:从hadoop_home/下面cp一个hadoop/hadoop-core-0.20.203.0.jar到hbase_home/lib下。