hadoop安装包解压之后的操作
2023-12-14 10:42:55
Hadoop解压完成之后配置流程
修改hadoop-env.sh和yarn-env.sh
进入hadoop-3.2.4/etc/hadoop/ 修改这两个文件增加 :
JAVA_HOME={java的路径}
修改配置文件core-site.xml 和 hdfs-site.xml
进入hadoop-3.2.4/etc/hadoop/ 修改这两个文件增加 :
// 这是core-site.xml
<configuration>
<!--hdfs临时路径-->
<property>
<name>hadoop.tmp.dir</name>
<value>/data/hadoop/tmp</value>
</property>
<!--hdfs 的默认地址、端口 访问地址-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/data/hadoop/namenode</value>
</property>
<property>
<name>dfs.datanode.name.dir</name>
<value>/data/hadoop/datanode</value>
</property>
</configuration>
// 这是hdfs-site.xml
<configuration>
<!--hdfs web的地址 -->
<property>
<name>dfs.namenode.http-address</name>
<value>master:50070</value>
</property>
<!-- 副本数-->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<!-- 是否启用hdfs权限检查 false 关闭 -->
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
<!-- 块大小,默认字节, 可使用 k m g t p e-->
<property>
<name>dfs.blocksize</name>
<value>134217728</value>
</property>
</configuration>
修改配置文件mapred-site.xml、yarn-site.xml、workers
进入hadoop-3.2.4/etc/hadoop/
在mapred-site.xml增加
<!--local表示本地运行,classic表示经典mapreduce框架,yarn表示新的框架-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=/opt/hadoop-3.2.4</value>
</property>
<property>
<name>mapreduce.application.classpath</name>
<value>/opt/hadoop-3.2.4/share/hadoop/mapreduce/*:/opt/ hadoop-3.2.1 /share/hadoop/mapreduce/lib/*</value>
</property>
在yarn-site.xml中增加:
<!--集群master-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<!-- NodeManager上运行的附属服务-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 关闭内存检测-->
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
修改workers:
vim workers
master
node1
node2
拷贝Hadoop安装包
scp -r /opt/server/hadoop/hadoop-3.2.4/ node1:/opt/server/hadoop
创建数据目录
cd /opt
mkdir -p /data/hadoop/tmp
mkdir -p /data/hadoop/namenode
ssh node1 "mkdir -p data/hadoop/tmp"
ssh node1 "mkdir -p data/hadoop/datanode"
格式化HDFS
cd /opt/server/hadoop/hadoop-3.2.4/bin
./hdfs namenode -format cluster_demo01
集群启动
在Master节点:$HADOOP_HOME/sbin/start-dfs.sh ,启动HDFS 。
在Master节点:$HADOOP_HOME/sbin/start-yarn.sh, 启动YARN。
在Master节点:$HADOOP_HOME/bin/start-all.sh,启动所有服务。
文章来源:https://blog.csdn.net/fuhao6363/article/details/134986269
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!