hadoop分布式的启动和wordcount实例

来源:互联网 发布:淘宝香港代购可靠吗 编辑:程序博客网 时间:2024/06/10 01:27
1:格式化namenode
 
  hadoop namenode -format

2:启动
   start-all.sh

3:验证
   jps
   查看当前hadoop进程
   正确启动后
   master
     namenode
     secondarynamenode
     tasktracker
     jps
   slave
     datanode
     jobtracker
     jps

4:启动不成功的问题(自己遇到的)
首先要关闭防火墙
第一个是namenode没有启动成功,原因是没有格式化namenode
解决方法:handoop namenode -format 格式化后重新start-all.sh
第二个是datanode没有启动成功,原因不太清楚,不过在网上找到了解决办法,类似于缓存一样的原因
解决办法:删除slave中的tmp目录,然后重新建立tmp目录
mkdir tmp
cd tmp
mkdir data
mkdir name

5:启动成功后可以登录网页查看
http://master:50030/jobtracker.jsp
http://master:50070      

6:wordcount实例
hadoop自带的实例hadoop-examples-1.1.2.jar里面包含Wordcount程序
创建两个文件test1.txt和test2.txt,内容分别问hello world和hello hadoop
hadoop fs -mkdir ./input
hadoop fs -mkdir ./out
hadoop fs -put test1.txt ./input
hadoop fs -put test2.txt ./input
hadoop jar hadoop-examples-1.1.2.jar Wordcount input out

hadoop fs -ls ./out

hadoop fs -cat ./out/*
可以看到结果

0 0
原创粉丝点击