问答文章1 问答文章501 问答文章1001 问答文章1501 问答文章2001 问答文章2501 问答文章3001 问答文章3501 问答文章4001 问答文章4501 问答文章5001 问答文章5501 问答文章6001 问答文章6501 问答文章7001 问答文章7501 问答文章8001 问答文章8501 问答文章9001 问答文章9501

我什么配置hadoop 环境变量 eclipse

发布网友 发布时间:2022-04-21 09:12

我来回答

2个回答

懂视网 时间:2022-04-09 17:11

这个问题来的有点莫名奇妙,之前我的hadoop运行一直是正常的,某一天开始运行Mapreduce就报这个错。

试过很多种方法都没有用,比如

1.path环境变量
2.Hadoop bin目录下hadoop.dll和winutils.exe
3.c:windowssystem32 下的hadoop.dll
4.64为jdk
条件都满足了还是报错
技术分享
技术分享
技术分享

试了这些方法都没有用,最后只有改源码了。

下载相应版本的源码解压,找到NativeIO.java文件。将它加入到工程中去,如下图

技术分享

修改NativeIO.java

技术分享

最后重新执行程序就正常了。

 

解决org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z

标签:ima   access   解决   大小   log   没有   bin   apr   http   

热心网友 时间:2022-04-09 14:19

配置hadoop 环境变量 eclipse

a.在master节点上(ubuntu-V01)修改hdfs-site.xml加上以下内容 
<property> 
<name>dfs.permissions</name> 
<value>false</value> 
</property> 

旨在取消权限检查,原因是为了解决我在windows机器上配置eclipse连接hadoop服务器时,配置map/rece连接后报以下错误,org.apache.hadoop.security.AccessControlException: Permission denied: 


b.同样在master节点上(ubuntu-V01)修改hdfs-site.xml加上以下内容 
<property> 
<name>dfs.web.ugi</name> 
<value>jack,supergroup</value> 
</property> 

原因是运行时,报如下错误 WARN org.apache.hadoop.security.ShellBasedUnixGroupsMapping: got exception trying to get groups for user jack 
应该是我的windows的用户名为jack,无访问权限 
更多权限配置可参看官方说明文档: 
HDFS权限管理用户指南http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_permissions_guide.html 

配置修改完后重启hadoop集群: 
hadoop@ubuntu-V01:~/data$./sbin/stop-dfs.sh 
hadoop@ubuntu-V01:~/data$./sbin/stop-yarn.sh 
hadoop@ubuntu-V01:~/data$./sbin/start-dfs.sh 
hadoop@ubuntu-V01:~/data$./sbin/start-yarn.sh 


二.windows基础环境准备 
windows7(x64),jdk,ant,eclipse,hadoop 

1.jdk环境配置 
jdk-6u26-windows-i586.exe安装后好后配置相关JAVA_HOME环境变量,并将bin目录配置到path 

2.eclipse环境配置 
eclipse-standard-luna-SR1-win32.zip解压到D:\eclipse\目录下并命名eclipse-hadoop 
下载地址:http://developer.eclipsesource.com/technology/epp/luna/eclipse-standard-luna-SR1-win32.zip 
3.ant环境配置 
apache-ant-1.9.4-bin.zip解压到D:\apache\目录下,配置环境变量ANT_HOME,并将bin目录配置到path 
下载地址:http://mirror.bit.e.cn/apache//ant/binaries/apache-ant-1.9.4-bin.zip 

4.下载hadoop-2.5.2.tar.gz 
http://mirror.bit.e.cn/apache/hadoop/common/hadoop-2.5.2/hadoop-2.5.2.tar.gz 

5.下载hadoop-2.5.2-src.tar.gz 
http://mirror.bit.e.cn/apache/hadoop/common/hadoop-2.5.2/hadoop-2.5.2-src.tar.gz 

6.下载hadoop2x-eclipse-plugin 
https://github.com/winghc/hadoop2x-eclipse-plugin 

7.下载hadoop-common-2.2.0-bin 
https://github.com/srccodes/hadoop-common-2.2.0-bin 

分别将hadoop-2.5.2.tar.gz、hadoop-2.5.2-src.tar.gz、hadoop2x-eclipse-plugin、hadoop-common-2.2.0-bin下载解压到F:\hadoop\目录下 


8.修改本地hosts文件,加入如下内容:

192.168.1.112 ubuntu-V01

三、编译hadoop-eclipse-plugin-2.5.2.jar配置 
1.添加环境变量HADOOP_HOME=F:\hadoop\hadoop-2.5.2\ 
追加环境变量path内容:%HADOOP_HOME%/bin 

2.修改编译包及依赖包版本信息 
修改F:\hadoop\hadoop2x-eclipse-plugin-master\ivy\libraries.properties 
hadoop.version=2.5.2 
jackson.version=1.9.13 

3.ant编译 
F:\hadoop\hadoop2x-eclipse-plugin-master\src\contrib\eclipse-plugin> 
ant jar -Dversion=2.5.2 -Declipse.home=D:\eclipse\eclipse-hadoop\eclipse -Dhadoop.home=F:\hadoop\hadoop-2.5.2 

编译好后hadoop-eclipse-plugin-2.5.2.jar会在F:\hadoop\hadoop2x-eclipse-plugin-master\build\contrib\eclipse-plugin目录下 


四、eclipse环境配置 
1.将编译好的hadoop-eclipse-plugin-2.5.2.jar拷贝至eclipse的plugins目录下,然后重启eclipse 
2.打开菜单Window--Preference--Hadoop Map/Rece进行配置,如下图所示: 


3.显示Hadoop连接配置窗口:Window--Show View--Other-MapRece Tools,如下图所示: 



4.配置连接Hadoop,如下图所示: 


查看是否连接成功,能看到如下信息,则表示连接成功: 



五、hadoop集群环境添加测试文件

(如果已有则无需配置) 


a.dfs上创建input目录 
hadoop@ubuntu-V01:~/data/hadoop-2.5.2$bin/hadoop fs -mkdir -p input 

b.把hadoop目录下的README.txt拷贝到dfs新建的input里 
hadoop@ubuntu-V01:~/data/hadoop-2.5.2$bin/hadoop fs -copyFromLocal README.txt input 


六、创建一个Map/Rece Project 
1.新建项目 File--New--Other--Map/Rece Project 命名为MR1, 
然后创建类org.apache.hadoop.examples.WordCount,从hadoop-2.5.2-src中拷贝覆盖 
(F:\hadoop\hadoop-2.5.2-src\hadoop-maprece-project\hadoop-maprece-examples\src\main\java\org\apache\hadoop\examples\WordCount.java) 

2.创建log4j.properties文件 
在src目录下创建log4j.properties文件,内容如下: 
log4j.rootLogger=debug,stdout,R 
log4j.appender.stdout=org.apache.log4j.ConsoleAppender 
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout 
log4j.appender.stdout.layout.ConversionPattern=%5p - %m%n 
log4j.appender.R=org.apache.log4j.RollingFileAppender 
log4j.appender.R.File=maprece_test.log 
log4j.appender.R.MaxFileSize=1MB 
log4j.appender.R.MaxBackupIndex=1 
log4j.appender.R.layout=org.apache.log4j.PatternLayout 
log4j.appender.R.layout.ConversionPattern=%p %t %c - %m%n 
log4j.logger.com.codefutures=DEBUG 

3.解决java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)异常问题 
(由于你的环境和我的可能不一致,可以在后面出现相关问题后再进行修改) 
拷贝源码文件org.apache.hadoop.io.nativeio.NativeIO到项目中 
然后定位到570行,直接修改为return true; 
如下图所示: 



七、windows下运行环境配置

(如果不生效,则需要重启机器) 


需要hadoop.dll,winutils.exe 
我是直接拷贝F:\hadoop\hadoop-common-2.2.0-bin-master\bin目录下内容覆盖F:\hadoop\hadoop-2.5.2\bin 


八、运行project
在eclipse中点击WordCount.java,右键,点击Run As—>Run Configurations,配置运行参数,即输入和输出文件夹 
hdfs://ubuntu-V01:9000/user/hadoop/input hdfs://ubuntu-V01:9000/user/hadoop/output 
如下图所示: 

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com
临沂比较有名的男装品牌 呼伦贝尔市悦动网络科技有限公司怎么样? 呼伦贝尔中汇实业有限公司怎么样? 呼伦贝尔油玉不绝电子商务有限公司怎么样? 如何避免wps卡顿? 属鼠的男人找对象是属什么,属鼠的人和什么属相合 96年鼠的姻缘在哪年 属相相合年份运势提升 2024属鼠找对象属什么最佳 黑客攻击网站能报案吗 黑客攻击报案有用吗 Y开头的英语单词有哪些? 前面是y 的单词 Mesos和YARN的区别以及它们如何协同工作 yarn是什么意思及反义词 小米3手机怎么样链接16g的移动u 盘 小米3手机 oTG功能怎么连接操作 小米手机怎么用USB连接电脑? 小米3使用otg线连接u盘怎样在手机上查看? 小米3怎么直接作u 盘存储文件 小米3手机怎么当U盘用? 小米3手机 oTG功能怎么连接操作? 小米3恢复出厂设置后USB储存器没有了怎么办 小米3 u盘模式如何开启 小米3如何开启USB调试模式 小米3手机怎么设置usb链接电脑? 小米3使用otg线连接u盘,怎样在手机上查看u盘 小米3手机的usb调试在哪 小米3手机USB调试模式怎么开启 小米3如何连接U盘?手机U盘可以直接连吗? 美股交易的时间是几点?对应国内的时间是什么时候? 要以“y”开头的单词20个啊(要有中文的) 翻译下,英译中 毛衣一般是什么面料英语 y开头的单词大全集 PM是什么面料成分的缩写? 翻译如下关于服装的文件 大写的y怎么读 服装英语词汇 忘记小度的开机密码怎么办? 历届欧洲金靴奖 org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0(Ljava&#47;lang&#47;String;I)V 针对cdh的组件oozie适合apache版本的hadoop组件一起使用么 nap是什么意思,nap的解释 河虾卖不完要怎么样才能保养到第二天? 活虾怎么放第二天不会死,还是活的 活虾怎么保存到第二天不死 买回来的虾,怎么可以养活三天不死? 虾在不充氧的环境怎么样才能存活更久? 活虾隔夜怎么保存 活虾怎么保存三四天还是活的