博客
关于我
Hadoop是小象——Hadoop集群安装配置
阅读量:171 次
发布时间:2019-02-26

本文共 2510 字,大约阅读时间需要 8 分钟。

Hadoop集群安装配置指南

环境准备

在开始Hadoop安装之前,首先需要确保环境配置正确。以下是我们需要完成的主要步骤:

1. 安装所需软件

Java安装

  • 必须安装JavaTM 1.5.x。建议使用Sun公司发行的Java版本。

SSH配置

  • 已安装OpenSSH(CentOS默认安装),确保sshd服务正常运行。

2. 集群网络配置

集群网络环境配置如下:

  • Master节点内网IP:192.168.235.131
  • Slave1内网IP:192.168.235.132
  • Slave2内网IP:192.168.235.133

网络问题解决

  • 克隆虚拟机时,需手动修改MAC地址并重新分配IP地址,避免网络冲突。

3. SSH免密登录设置

Host文件配置

  • /etc/hosts文件尾部添加以下内容:
    192.168.235.131 master192.168.235.132 slave1192.168.235.133 slave2
  • 确保所有节点均正确解析。

Hostname修改

  • 修改每个节点的hostname,例如(以Master节点为例):
    sudo hostnamectl set-hostname master
  • 重启终端后,执行$hostname验证配置。

SSH免密登录

  • 在Master节点生成RSA密钥,并将其添加到Slave节点的~/.ssh/authorized_keys文件中。
    ssh-keygen -t rsa
  • 传输密钥文件:
    scp ~/.ssh/id_rsa.pub root@slave1:~scp ~/.ssh/id_rsa.pub root@slave2:~
  • 在Slave节点添加密钥并设置权限:
    chmod 600 ~/.ssh/authorized_keys

4. Hadoop安装

Hadoop源码下载

  • 使用wget下载Hadoop二进制源码:
    wget http://mirror.apache.org/hadoop/core/hadoop-2.8.5.tar.gz
  • 解压文件并进入目录:
    tar -zxvf hadoop-2.8.5.tar.gz

Hadoop配置

Master节点配置文件
  • 修改core-site.xml
    vim ~/hadoop/etc/hadoop/core-site.xml

    配置内容如下:

    fs.default.name
    hdfs://master:9000
    hadoop.tmp.dir
    file:/home/leesanghyuk/hadoop-2.8.5/hadoop/tmp
  • 类似地修改hdfs-site.xmlmapred-site.xmlyarn-site.xml等配置文件。
Slave节点配置
  • 将Hadoop文件传输到Slave节点并解压:
    scp -r ~/hadoop root@slave1:~scp -r ~/hadoop root@slave2:~

环境变量配置

  • 修改/etc/profile文件:
    vi /etc/profile

    添加以下内容:

    # Hadoop环境变量配置export HADOOP_HOME=/home/leesanghyuk/hadoop-2.8.5export HADOOP_INSTALL=$HADOOP_HOMEexport HADOOP_MAPRED_HOME=$HADOOP_HOMEexport HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOMEexport YARN_HOME=$HADOOP_HOMEexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
  • 使配置生效:
    source /etc/profile

5. Hadoop启动

格式化NameNode

  • 格式化namenode:
    hadoop namenode -format
  • 启动Hadoop集群:
    start-all.sh

验证集群状态

  • 查看进程:
    jps
  • 确认Hadoop服务运行状态。

6. Hadoop集群测试

创建测试文件

  • 生成测试文件:
    echo "My name is LeesangHyuk. This is a example program called WordCount, run by LeesangHyuk " > testWordCount
  • 创建输入目录并上传文件:
    hadoop fs -mkdir /wordCountInputhadoop fs -put testWordCount /wordCountInput

执行WordCount程序

  • 运行MapReduce程序:
    hadoop jar ~/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.5.jar wordcount /wordCountInput /wordCountOutput
  • 查看输出结果:
    hadoop fs -ls /wordCountOutputhadoop fs -cat /wordCountOutput/part-r-00000

注意事项

  • 确保所有节点的防火墙和SELinux设置已关闭。
  • Hadoop的日志聚合和资源管理配置需根据实际负载进行优化。
  • 定期检查节点状态和网络连接,确保集群稳定运行。

通过以上步骤,可以实现一个功能正常的Hadoop集群环境,满足大数据处理和分析需求。

转载地址:http://dqak.baihongyu.com/

你可能感兴趣的文章
Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
查看>>
Nginx配置如何一键生成
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
Nginx配置文件nginx.conf中文详解(总结)
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>
NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
查看>>
NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
查看>>