问答文章1 问答文章501 问答文章1001 问答文章1501 问答文章2001 问答文章2501 问答文章3001 问答文章3501 问答文章4001 问答文章4501 问答文章5001 问答文章5501 问答文章6001 问答文章6501 问答文章7001 问答文章7501 问答文章8001 问答文章8501 问答文章9001 问答文章9501

hadoop2.4.1怎样删除搭建

发布网友 发布时间:2022-04-20 11:52

我来回答

1个回答

热心网友 时间:2022-04-12 01:31

首先说明,博主以前也没学过Hadoop,更别提Linux。只不过买了点资料,觉得不看也是浪费,索性找了时间学习了一下,别说,还真是吸引人。

言归正传,博主机器:笔记本 Y50-70 美版的

搭建环境:VM11(VMware Workstation 11),使用的是CenOS 6.5 64位

所需软件:SecureCRT

1.先在VM上安装Linux虚

1.1 打开文件----新建虚拟机-----自定义(高级)-----按下一步,然后选择稍后安装系统

1.2  选择机器配置

1.3 选择网络类型,使用仅主机模式,因为这样可以使用静态IP,以免造成IP变动引起的无法解析hosts文件映射问题

1.4 选择磁盘容量大小后,按下一步完成,然后该虚拟机,在CD/DVD光驱中加载你的CentOS6.5镜像文件


1.6 启动VM虚拟机,进行Linux安装,进入安装页面后会出现Media Test 此时选择SKIP 直接进行安装,然后一直按下一步,出现如下显示信息,选择Yes,discard any data,下面的hostname你按自己喜欢的来设定,其余的时间地点什么的你自己选,root密码自己设定(别忘记就行),wirte changes to disks.

以上安装完成,然后克隆这个虚拟机,克隆两个。

2.进入虚拟机,进行IP设置以及文件修改。另外两台虚拟机也照这样修改,不过IP地址你自己设定,不要一样就行

2.1 进行IP设置等

2.2 修改eth0配置文件 ,将onboot=no改为yes即可,

2.3 建立hadoop运行账户

即为hadoop集群专门设置一个用户组及用户,这部分比较简单,参考示例如下:

sudo groupadd hadoop    //设置hadoop用户组

sudo useradd –s  /bin/bash  –d  /home/ding  –m  ding  –g  hadoop –G root   //添加一个ding用户,此用户属于hadoop用户组,且具有root权限。

sudo passwd ding   //设置用户ding登录密码

su ding   //切换到ding用户中

不过这些操作你也可以在图形界面完成

system----Administration-----Users and Groups

2.4 修改host文件 三台hosts文件都一样


关闭防火墙
#查看防火墙状态
service iptables status
#关闭防火墙
service iptables stop
#查看防火墙开机启动状态
chkconfig iptables --list
#关闭防火墙开机启动
chkconfig iptables off

克隆完的每台虚拟机需要修改下主机名:

vi /etc/sysconfig/network  

hostname=XXXX 即是你的主机名

命令:vi /etc/hosts        (PS:我换了另外一台虚拟机 所以IP地址跟上面有所区别 不过意思不变)

我的三台主机名:

2.5 为了操作便捷,转战SecureCRT这个软件

hostname填入你的IP地址,username填入你的hadoop用户组里面的,例如:hostname:192.168.0.120 username :ding

其余两个虚拟机连接也这么干

3.配置SSH无密码登录

PS:每个机器的hosts文件都要设置好,且要一样的啊

3.1 产生密钥

在secureCRT键入 cd .ssh 命令 进入.ssh隐藏文件夹 (隐藏文件夹 使用 ll -a 才会显示出来)

键入命令 ssh-keygen -t rsa 

其余2个虚拟机也进行如此步骤

3.2 将master的公钥复制给node01和node02,这里说下ssh无密码登录的原理:

也就是说A想要无密码登录B,必须要将自己的公钥发给B,B将其加入到授权列表才行

在node01、node02主机上将master主机上的公钥复制过来

例如在node01上将master上的公钥复制到node01上来,此操作是在node01主机上完成

命令:scp ding@master:~/.ssh/id_rsa.pub ./master_rsa.pub        //此命令是将master主机上,文件夹.ssh下的id_rsa.pub文件复制到node01上的根目录下,且命名为master_rsa.pub

在node02上也进行如此操作,然后进行测试:

在master主机上键入命令:ssh node01 ,如果没有问题只需要输入yes即可

3.2.1 对自己进行无密码登录 ssh master 操作同上 在.ssh文件目录下输入命令 cat id_rsa.pub >> authorized_keys 即可完成

4.下载安装JDK,HADOOP,配置环境变量

4.1 下载JDK,并且安装

tar -zxvf jdk-7u79-linux-x64.tar.gz -C /usr/lib/jvm      //我是将jdk安装到/usr/liv/jvm中的,此时使用的权限是root(切换root用户命令su,抱歉我没有操作sudoer这个文件,所以没法使用sudo这个命令)

4.2 下载hadoop jar包

tar -zxvf hadoop-2.4.1tar.gz -C  /home/ding/hadoop      //需要在你的目录下先创建文件夹 hadoop (mkdir hadoop)

4.2 配置环境变量

命令:vi /etc/profile 

保存后,source /etc/profile 让配置文件生效,其余node01,node02也需要进行如此操作,当然,前提是你的用户名与jdk安装目录,hadoop安装目录都是一样的

4.3 配置hadoop文件

配置文件都在 /hadoop-2.4.1/etc/hadoop目录下面

4.3.1 配置core-site.xml文件 

4.3.2 配置hdfs-site.xml

4.3.3 配置 mapred-site.xml文件

首先发现没有这个文件,而是有一个名为 mapred-site.xml.template ,现将此文件重命名,键入命令:mv mapred-site.xml.template mapred-site.xml,然后对文件进行修改

4.3.4 配置yarn-site.xml

4.3.5 配置 hadoop-env.sh ,slaves

配置文件1:hadoop-env.sh

修改JAVA_HOME值(export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_79)

配置文件2:slaves (这个文件里面保存所有slave节点)

5.将hadoop复制到其它节点 node01,node02

scp -r ~/hadoop ding@node01:~/                //注释将hadoop文件夹复制node01下主目录  ~/表示用户主目录,例如用户是ding 主目录就是 /home/ding

scp -r ~/hadoop ding@node02:~/

6.格式化namenode

键入命令: hdfs hadoop -format 

注意:上面只要出现“successfully formatted”就表示成功了。

7.启动hadoop

分别启动start-dfs.sh和start-yarn.sh命令

8.检查

在master和node上检查是否启动

在master检查,键入命令jps

在node01检查,键入命令jps


键入命令:hdfs dfsadmin -report

9.上传一个文件试试

先创建一个文件夹upload

上传文件至文件夹upload下

hadoop fs -put ~/hadoop-2.4.1.tar.gz /upload 

查看upload目录

hadoop fs -ls /upload


搭建hadoop2.4.1版本中/etc/hadoop/中找不到mapred-site.xml文件

默认情况下,/usr/local/hadoop/etc/hadoop/文件夹下有mapred.xml.template文件,我们要复制该文件,并命名为mapred.xml,该文件用于指定MapReduce使用的框架。复制并重命名 cp mapred-site.xml.template mapred-site.xml 编辑器打开此新建文件 sudo gedit mapred-site.xml 然后编辑mapred-site.xml ...

hadoop 怎么查看集群运行情况

Missing blocks: 0 个错误是因为多次hdfs namenode -format导致namespaceID不同,删掉datanode配置的dfs.data.dir目录后然后执行以下步骤。1 stop-dfs.sh 2 start-dfs.sh 3 hadoop dfsadmin -report 运行结果如下 [java] view plain copy [hadoop@mini1 ~]$ hdfs dfsadmin -report Configured Capacity...

hadoopeclipse的插件怎么安装

解决方法:(1)将commons-httpclient-3.0.1.jar,jackson-core-asl-1.0.1.jar,jackson-mapper-asl-1.0.1.jar,commons-configuration-1.6.jar,lcommons-lang-2.4.jar(这几个jar包在$HADOOP_HOME/lib/下找到)放入hadoop-0.20.203.0-eclipse-plugin的lib下 (2)修改hadoop-0.20.203.0-...

新手学习hadoop用什么系统好

从实现方式到用户接口完全是两个完全不同的东西,不要简单的认为那不过就像nginx从0.8升级到1.4一样。所以我给的建议是,生产环境用1.x,实验环境部署2.x作为熟悉使用。理由二: 依然是,Hadoop不是webserver,分布式系统尽管Hadoop实现出来了,但是他仍然是非常复杂的一套体系,单说HDFS存储,以前Hado...

hadoop本地库无法加载

(1)首先,设置环境变量,并确保环境变量生效(使用source 命令导入,或者打开一个新的shell,或者干脆在当前shell里面,把这些命令运行一遍)export HADOOP_HOME=/your/own/hadoop/home [这个你懂的]export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library....

请教hadoop2.0的ha如何配置

ZooKeeper:zookeeper-3.4.5-cdh5.7.1 3 Linux环境准备 集群各节点进行如下修改配置: 3.1 创建用户并添加权限 // 切换root用户 $ su root // 创建hadoop用户组 # groupadd hadoop // 在hadoop用户组中创建hadoop用户 # useradd -g hadoop hadoop // 修改用户hadoop密码 # passwd hadoop // 修改sudoers配置文件...

如何配置Hadoop环境

export JAVA_HOME=/usr/local/jdk1.7.0_71 export PATH=PATH:$JAVA_HOME/bin 现在从终端验证 java -version 命令如上述说明。下载Hadoop 下载来自Apache基金会软件,使用下面的命令提取 Hadoop2.4.1。su password:cd /usr/local wget http //apache claz org/hadoop/common/hadoop-2.4.1/ hado...

大数据开发面试必问:Hive调优技巧系列一

1.1 分区表分区表能减少计算时的数据量。分区表在HDFS上对应独立文件夹,存放该分区数据。常用于WHERE子句中的字段作为分区字段,提高查询效率。1.1.1 分区表基本操作创建分区表语法查询分区表数据增加分区删除分区查看分区表分区数思考:面对大量日志数据,如何合理拆分?1.1.2 动态分区动态分区无需预先...

hadoop ha有几个resourcemanager

。注意是在Apache Hadoop 2.4.1版本中开始加入的,可不是任意一个版本。我们不讲单点问题的危害,直接讲如何配置ResourceManager的HA。HA的架构 如果大家理解HDFS的HA,那么ResourceManager的HA与之是相同道理的:也是Active/Standby架构,任意时刻,都一 ...

...篇章:详解DolphinScheduler 3.2.0生产级集群搭建

1.1 集群规划:本次安装环境为contos7.9。1.2 组件下载地址:DolphinScheduler-3.20官网: dolphinscheduler.apache.org...1.3 前置准备工作:注意,DolphinScheduler本身不依赖Hadoop、Hive、Spark,但如果你运行的任务需要依赖他们,就需要有对应的环境支持。2. DolphinScheduler集群安装 2.1 解压安装包 2...

hadoop怎样搭建集群 hadoop怎么搭建的 hadoop2删除命令 hadoop搭建步骤 hadoop集群搭建详解 hadoop平台搭建 hadooplinux搭建 hadoop集群快速搭建 分布式hadoop搭建
声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com
如何保养中央空调? 宠物天技碎片获得方法 宠物天技碎片获取 高中化学有机物分子鉴定读图 问道手游天技碎片获取方式及用处详细解读 桑乐太阳能上不了水显示满着呢 锦州到南昌的火车票学生票提前多少天可以买到? 我在北票,怎么买锦州到南昌的火车票 结肠炎和结肠癌区别 谁能告诉我有没有南昌到锦州的火车或者长途汽车?价格多少?用时多久?谢 ... 结肠炎与结肠癌的区别 Hadoop集群可以运行的3个模式分别是什么,有哪些注... hadoop文件系统的设置 用hadoop fs -ls命令出现错误 谁知道这个是什么原因, hadoop java api在写入文... hadoop集群,如果不设置关闭防火墙的话,那么应该... hadoop集群部署出错,求帮助 hadoop集群为什么要关闭防火墙 hadoop伪分布搭建为什么要关闭防火墙 如何煮饭 怎样煮饭才好吃。。。 煮饭是什么意思 怎样煮饭?? 煮饭怎么才能煮好? 怎么煮饭步骤 煮饭怎么煮啊 怎么煮饭、煮饭的详细步骤 做饭,和煮饭的意思是一样吗? 煮饭要怎么煮好吃? 煮饭大概要煮多少分钟? 怎么煮饭啊?? 煮饭的步骤顺序 我在Hadoop集群中起集群起不来,看日志说50070端口... win7环境下hadoop远程主机强迫关闭了一个现有的连... 主机怎么访问虚拟机的 hadoop 端口 如何在docker中部署hadoop2.4集群 哪位大神知道从安装hadoop2.7.1到配置文件的所有正... 求教搭建hadoop集群,在配置ssh时遇到的一个问题,... hadoop怎么获取connection Hadoop虚拟机crt老是连接不上 dfszkfailovercontroller 是什么进程 hadoop name node 无法离开安全模式 电脑里的数据丢失要怎么恢复? 如何将电脑丢失的文件找回 电脑里的文件没有删除但不见了要怎么找回 如何恢复文件夹的文件 怎么找回电脑丢失的文件 怎么找回计算机删除的文件 电脑中丢失文件怎么找回?把电脑丢失的文件找回 怎么注册成为拼多多卖家?现在环境不太好,想学着开店,搞搞副业 韩剧《故乡》有哪些细思极恐的细节? 如何评价韩剧《故乡》?