hadoop命令无法创建目录
spark运行在hadoop基础之上,实行spark编程一系列操作时我们先要使用hadoop命令创建目录,但是发现-hdfs common not found,出现这类错误我们需要环境变量的问题,编辑/etc/priofile文件添加自己的hadoop安装路径环境变量:
export PATH=/usr/local/hadoopha/bin:$PATH
source /etc/profile让配置文件生效最后再创建目录就可以啦!
hadoop命令无法创建目录
spark运行在hadoop基础之上,实行spark编程一系列操作时我们先要使用hadoop命令创建目录,但是发现-hdfs common not found,出现这类错误我们需要环境变量的问题,编辑/etc/priofile文件添加自己的hadoop安装路径环境变量:
export PATH=/usr/local/hadoopha/bin:$PATH
source /etc/profile让配置文件生效最后再创建目录就可以啦!
版权说明: 本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。
热文榜单