Hbase+Hadoop安装部署

标签: hbase hadoop | 发表时间:2013-06-21 06:28 | 作者:
分享到:
出处:http://www.iteye.com

VMware安装多个RedHat Linux操作系统,摘抄了不少网上的资料,基本上按照顺序都能安装好

 

1、建用户

groupadd bigdata

useradd -g bigdata hadoop

passwd hadoop

 

2、建JDK

vi /etc/profile

 

export JAVA_HOME=/usr/lib/java-1.7.0_07

export CLASSPATH=.

export HADOOP_HOME=/home/hadoop/hadoop

export HBASE_HOME=/home/hadoop/hbase 

export HADOOP_MAPARED_HOME=${HADOOP_HOME}

export HADOOP_COMMON_HOME=${HADOOP_HOME}

export HADOOP_HDFS_HOME=${HADOOP_HOME}

export YARN_HOME=${HADOOP_HOME}

export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

export HDFS_CONF_DIR=${HADOOP_HOME}/etc/hadoop

export YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop

export HBASE_CONF_DIR=${HBASE_HOME}/conf

export ZK_HOME=/home/hadoop/zookeeper

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$HADOOP_HOME/sbin:$ZK_HOME/bin:$PATH

 

 

 

 

 

source /etc/profile

chmod 777 -R /usr/lib/java-1.7.0_07

 

 

3、修改hosts

vi /etc/hosts

加入

172.16.254.215   master

172.16.254.216   salve1

172.16.254.217   salve2

172.16.254.218   salve3

 

3、免ssh密码

215服务器

su -root

vi /etc/ssh/sshd_config

确保含有如下内容

RSAAuthentication yes

PubkeyAuthentication yes

AuthorizedKeysFile      .ssh/authorized_keys

重启sshd

service sshd restart

 

su - hadoop

ssh-keygen -t rsa

cd /home/hadoop/.ssh

cat id_rsa.pub >> authorized_keys

chmod 600 authorized_keys

 

在217  218  216 分别执行 

mkdir /home/hadoop/.ssh

chmod 700 /home/hadoop/.ssh

 

在215上执行

scp id_rsa.pub hadoop@salve1:/home/hadoop/.ssh/

scp id_rsa.pub hadoop@salve2:/home/hadoop/.ssh/

scp id_rsa.pub hadoop@salve3:/home/hadoop/.ssh/

 

在217  218  216 分别执行 

cat /home/hadoop/.ssh/id_rsa.pub >> /home/hadoop/.ssh/authorized_keys 

chmod 600 /home/hadoop/.ssh//authorized_keys

 

 

4、建hadoop与hbase、zookeeper

su - hadoop

mkdir /home/hadoop/hadoop

mkdir /home/hadoop/hbase

mkdir /home/hadoop/zookeeper

 

cp -r /home/hadoop/soft/hadoop-2.0.1-alpha/* /home/hadoop/hadoop/

cp -r /home/hadoop/soft/hbase-0.95.0-hadoop2/* /home/hadoop/hbase/

cp -r /home/hadoop/soft/zookeeper-3.4.5/* /home/hadoop/zookeeper/

 

 

1) hadoop 配置

 

vi /home/hadoop/hadoop/etc/hadoop/hadoop-env.sh 

修改 

export JAVA_HOME=/usr/lib/java-1.7.0_07

export HBASE_MANAGES_ZK=true

 

 

vi /home/hadoop/hadoop/etc/hadoop/core-site.xml

加入

<configuration>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/hadoop/tmp</value>

<description>A base for other temporary directories.</description>

</property>

<property>

<name>fs.default.name</name>

<value>hdfs://172.16.254.215:9000</value>

</property>

<property>

<name>hadoop.proxyuser.root.hosts</name>

<value>172.16.254.215</value>

</property>

<property>

<name>hadoop.proxyuser.root.groups</name>

<value>*</value>

</property>

</configuration>

 

vi /home/hadoop/hadoop/etc/hadoop/slaves  

加入(不用master做salve)

salve1

salve2

salve3

 

vi /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml

加入

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

 

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/home/hadoop/hdfs/name</value>

<final>true</final>

</property>

 

<property>

<name>dfs.federation.nameservice.id</name>

<value>ns1</value>

</property>

 

<property>

<name>dfs.namenode.backup.address.ns1</name>

<value>172.16.254.215:50100</value>

</property>

 

<property>

<name>dfs.namenode.backup.http-address.ns1</name>

<value>172.16.254.215:50105</value>

</property>

 

<property>

<name>dfs.federation.nameservices</name>

<value>ns1</value>

</property>

 

<property>

<name>dfs.namenode.rpc-address.ns1</name>

<value>172.16.254.215:9000</value>

</property>

<property>

<name>dfs.namenode.rpc-address.ns2</name>

<value>172.16.254.215:9000</value>

</property>

 

<property>

<name>dfs.namenode.http-address.ns1</name>

<value>172.16.254.215:23001</value>

</property>

 

<property>

<name>dfs.namenode.http-address.ns2</name>

<value>172.16.254.215:13001</value>

</property>

 

<property>

<name>dfs.dataname.data.dir</name>

<value>file:/home/hadoop/hdfs/data</value>

<final>true</final>

</property>

 

<property>

<name>dfs.namenode.secondary.http-address.ns1</name>

<value>172.16.254.215:23002</value>

</property>

 

<property>

<name>dfs.namenode.secondary.http-address.ns2</name>

<value>172.16.254.215:23002</value>

</property>

 

<property>

<name>dfs.namenode.secondary.http-address.ns1</name>

<value>172.16.254.215:23003</value>

</property>

 

<property>

<name>dfs.namenode.secondary.http-address.ns2</name>

<value>172.16.254.215:23003</value>

</property>

</configuration>

 

 

vi /home/hadoop/hadoop/etc/hadoop/yarn-site.xml

加入

<configuration>

<property>

<name>yarn.resourcemanager.address</name>

<value>172.16.254.215:18040</value>

</property>

 

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>172.16.254.215:18030</value>

</property>

 

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>172.16.254.215:18088</value>

</property>

 

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>172.16.254.215:18025</value>

</property>

 

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>172.16.254.215:18141</value>

</property>

 

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce.shuffle</value>

</property>

</configuration>

 

2) hbase配置

 

vi /home/hadoop/hbase/conf/hbase-site.xml

加入

<configuration>

<property> 

<name>dfs.support.append</name> 

<value>true</value> 

</property> 

<property> 

<name>hbase.rootdir</name> 

<value>hdfs://172.16.254.215:9000/hbase</value> 

</property> 

<property> 

<name>hbase.cluster.distributed</name> 

<value>true</value> 

</property> 

<property> 

<name>hbase.config.read.zookeeper.config</name> 

<value>true</value>

</property>

<property> 

<name>hbase.master</name> 

<value>master</value> 

</property> 

<property> 

<name>hbase.zookeeper.quorum</name> 

<value>salve1,salve2,salve3</value> 

</property> 

<property>

<name>zookeeper.session.timeout</name>

<value>60000</value>

</property>

<property>

<name>hbase.zookeeper.property.clientPort</name>

<value>2181</value>

</property>

<property>

<name>hbase.tmp.dir</name>

<value>/home/hadoop/hbase/tmp</value>

<description>Temporary directory on the local filesystem.</description>

</property>

<property>

<name>hbase.client.keyvalue.maxsize</name>

<value>10485760</value>

</property>

</configuration>

 

vi /home/hadoop/hbase/conf/regionservers

加入

salve1

salve2

salve3

 

vi /home/hadoop/hbase/conf/hbase-env.sh

修改

export JAVA_HOME=/usr/lib/java-1.7.0_07

export HBASE_MANAGES_ZK=false

 

 

 

3) zookeeper配置

 

vi /home/hadoop/zookeeper/conf/zoo.cfg

加入

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/home/hadoop/zookeeper/data

clientPort=2181

server.1=salve1:2888:3888

server.2=salve2:2888:3888

server.3=salve3:2888:3888

 

将/home/hadoop/zookeeper/conf/zoo.cfg拷贝到/home/hadoop/hbase/

 

 

4) 同步master和salve

scp -r /home/hadoop/hadoop  hadoop@salve1:/home/hadoop  

scp -r /home/hadoop/hbase  hadoop@salve1:/home/hadoop  

scp -r /home/hadoop/zookeeper  hadoop@salve1:/home/hadoop

 

scp -r /home/hadoop/hadoop  hadoop@salve2:/home/hadoop  

scp -r /home/hadoop/hbase  hadoop@salve2:/home/hadoop  

scp -r /home/hadoop/zookeeper  hadoop@salve2:/home/hadoop

 

scp -r /home/hadoop/hadoop  hadoop@salve3:/home/hadoop  

scp -r /home/hadoop/hbase  hadoop@salve3:/home/hadoop  

scp -r /home/hadoop/zookeeper  hadoop@salve3:/home/hadoop

 

设置 salve1 salve2 salve3 的zookeeper

 

echo "1" > /home/hadoop/zookeeper/data/myid

echo "2" > /home/hadoop/zookeeper/data/myid

echo "3" > /home/hadoop/zookeeper/data/myid

 

 

 

5)测试

测试hadoop

hadoop namenode -format -clusterid clustername

 

start-all.sh

hadoop fs -ls hdfs://172.16.254.215:9000/ 

hadoop fs -mkdir hdfs://172.16.254.215:9000/hbase 

//hadoop fs -copyFromLocal ./install.log hdfs://172.16.254.215:9000/testfolder 

//hadoop fs -ls hdfs://172.16.254.215:9000/testfolder

//hadoop fs -put /usr/hadoop/hadoop-2.0.1-alpha/*.txt hdfs://172.16.254.215:9000/testfolder

//cd /usr/hadoop/hadoop-2.0.1-alpha/share/hadoop/mapreduce

//hadoop jar hadoop-mapreduce-examples-2.0.1-alpha.jar wordcount hdfs://172.16.254.215:9000/testfolder hdfs://172.16.254.215:9000/output

//hadoop fs -ls hdfs://172.16.254.215:9000/output

//hadoop fs -cat  hdfs://172.16.254.215:9000/output/part-r-00000

 

启动 salve1 salve2 salve3 的zookeeper

zkServer.sh start

 

启动 start-hbase.sh

进入 hbase shell

测试 hbase 

list

create 'student','name','address'  

put 'student','1','name','tom'

get 'student','1'

 



已有 0 人发表留言,猛击->> 这里<<-参与讨论


ITeye推荐



相关 [hbase hadoop] 推荐:

"Hadoop/MapReduce/HBase"分享总结

- - ITeye博客
此分享是关于hadoop生态系统的简单介绍包括起源到相对应用. Hadoop和HBase.pdf (2.1 MB). 已有 0 人发表留言,猛击->> 这里<<-参与讨论. —软件人才免语言低担保 赴美带薪读研.

Hbase+Hadoop安装部署

- - ITeye博客
VMware安装多个RedHat Linux操作系统,摘抄了不少网上的资料,基本上按照顺序都能安装好. 在217  218  216 分别执行 . 在217  218  216 分别执行 . 4、建hadoop与hbase、zookeeper. 1) hadoop 配置. 加入(不用master做salve).

[原]Hadoop,HBase添加和删除节点

- - long1657的专栏
Hadoop添加和删除节点. (一)添加节点有两种方式,一种是静态添加,关闭hadoop集群,配置相应配置,重启集群(这个就不再重述了). (二)动态添加,在不重启集群的情况下添加节点. 1.设置新datanode与namenode的SSH无密码登陆. 2.在hosts添加主机名称,并且把该文件复制到集群中的其他节点上.

[hadoop] 基于Hadoop集群的HBase集群的配置

- - CSDN博客系统运维推荐文章
       a> 已经配置完成的Hadoop集群.        b> 所需要的软件包. 2>  单独安装的ZooKeeper集群,不基于HBase集群管理.        a> 在master01上解压zookeeper-3.4.4.tar.gz.        b> 修改Zookeeper的配置文件.

Hadoop集群安装&Hbase实验环境搭建

- - CSDN博客云计算推荐文章
1.安装ubuntu10.04操作系统. 安装成功后,系统也会有相应提示:. sudo vi /etc/inetd.conf并加入以下一行. sudo vi /etc/xinetd.conf并加入以下内容:. sudo vi /etc/xinetd.d/telnet并加入以下内容:. 重启机器或重启网络服务sudo /etc/init.d/xinetd restart.

分布式集群环境hadoop、hbase、zookeeper搭建(全)

- - CSDN博客云计算推荐文章
集群环境至少需要3个节点(也就是3台服务器设备):1个Master,2个Slave,节点之间局域网连接,可以相互ping通,下面举例说明,配置节点IP分配如下:. 三个节点均使用centos 6.3系统,为了便于维护,集群环境配置项最好使用相同用户名、用户密码、相同hadoop、hbase、zookeeper目录结构.

HBase – 基于Hadoop的分布式数据库

- - ITeye博客
  修改:dataDir=/home/ysc/zookeeper. mkdir /home/ysc/zookeeper(注:dataDir是zookeeper的数据目录,需要手动创建). hbase存在系统时间同步的问题,并且误差要再30s以内. HBase是数据库,会在同一时间使用很多的文件句柄,大多数linux系统使用的默认值1024是不能满足的,还需要修改 hbase 用户的nproc,在压力很大的情况下,如果过低会造成 OutOfMemoryError异常.

理解Hadoop-Hbase原理与应用小结

- - 数据库 - ITeye博客
首先Hbase中的一个“元素”是由行键、列族名、限定符、时间戳唯一标识的并且行键作为数据行在表里的唯一标识,我们只有通过行键来访问列族别无他法. 修改数据:我们先找到要修改的行键把新的数据记录追加到对应的列族中并打上一个新时间戳代表最新版本. 删除数据:插入带有删除标记的行进入,相当于把整个行键所在的行删了.

基于Nutch+Hadoop+Hbase+ElasticSearch的网络爬虫及搜索引擎

- - zzm
网络爬虫架构在Nutch+Hadoop之上,是一个典型的分布式离线批量处理架构,有非常优异的吞吐量和抓取性能并提供了大量的配置定制选项. 由于网络爬虫只负责网络资源的抓取,所以,需要一个分布式搜索引擎,用来对网络爬虫抓取到的网络资源进行实时的索引和搜索. 搜 索引擎架构在ElasticSearch之上,是一个典型的分布式在线实时交互查询架构,无单点故障,高伸缩、高可用.

Apache Hadoop 1.0.0支持Kerberos验证,支持Apache HBase,提供针对HDFS的RESTful API

- - InfoQ中文站
海量数据框架Apache Hadoop怀胎六年终于瓜熟蒂落发布1.0.0版本. 本次发布的核心特性包括支持Kerberos身份验证,支持Apache HBase,以及针对HDFS的RESTful API. InfoQ就此次发布请Apache Hadoop项目的VP——Arun Murthy回答了几个问题.