### Hadoop2安装与常用Shell命令详解#### Hadoop2安装步骤在开始Hadoop2的安装之前,首先需要确保所有节点的操作系统版本为CentOS/Red Hat Linux 6.4_x64,并且每台服务器都已完成基本的系统配置。 #####系统配置1. **主机名设置**: -修改主机名:通过`# hostname ha-nn-001`临时修改当前系统的主机名。 -永久更改主机名:编辑`/etc/sysconfig/network`文件中的`HOSTNAME`值为`ha-nn-001`。 -配置`/etc/hosts`文件来映射主机名和IP地址: ```bash # vi /etc/hosts 192.168.6.239 ha-nn-001 192.168.6.241 ha-nn-002 192.168.6.242 ha-dn-001 192.168.6.243 ha-dn-002 ``` 2. **时间同步**: -配置NTP服务以ha-nn-001为主时钟源: ```bash # vi /etc/ntp.conf server ha-nn-001 ntp ``` -启动并设置NTP服务开机启动: ```bash # chkconfig ntpd on # service ntpd start ``` 3. **安全设置**: -关闭防火墙: ```bash # service iptables stop # chkconfig iptables off ``` -禁用SELinux: ```bash # setenforce 0 # vi /etc/selinux/config SELINUX=disabled ``` #####用户和目录准备1. **创建Hadoop用户组和用户**: -创建`hadoop`用户组: ```bash # groupadd hadoop ``` -创建`hadoop`用户,并将其加入到`hadoop`组中: ```bash # useradd -g hadoop -d /home/hadoop # passwd hadoop ``` -设置`/home/hadoop`目录的所有权: ```bash # chown -R hadoop:hadoop /home/hadoop ``` ##### Hadoop安装1. **解压Hadoop安装包**: -在`/home/hadoop`目录下解压Hadoop安装包: ```bash $ cd /home/hadoop $ tar -zxvf hadoop_v2*.tar.gz ``` 2. **格式化和启动NameNode**(只需在一个节点上执行): -格式化NameNode: ```bash $ cd hadoop/bin/ $ ./hadoop namenode -format ``` -启动NameNode和ResourceManager: ```bash $ cd hadoop/sbin/ $ ./hadoop-daemon.sh start namenode $ ./yarn-daemon.sh start resourcemanager ``` 3. **启动DataNode和NodeManager**(在每个DataNode上执行): -在DataNode节点上启动DataNode和NodeManager: ```bash $ ./hadoop-daemon.sh start datanode $ ./yarn-daemon.sh start nodemanager ``` ####常用Hadoop Shell命令1. **查看集群状态**: -使用`jps`命令检查进程是否正常启动: ```bash $ jps 63078 DataNode 63195 NodeManager 63491 Jps ``` -使用`hadoop dfsadmin -report`查看集群报告: ```bash $ hadoop dfsadmin -report ``` 2. **集群管理**: -启动所有Hadoop服务: ```bash $ ./start-all.sh ``` -停止所有Hadoop服务: ```bash $ ./stop-all.sh ``` 3. **Web界面监控**: -访问NameNode和ResourceManager的Web界面,例如: - NameNode: `http://192.168.6.239:50070` - ResourceManager: `http://192.168.6.239:8088` #### Hadoop集群维护1. **SSH配置**: -在每个节点上配置无密码SSH登录,以便于集群内部的通信。 -通过`ssh-keygen`生成公钥和私钥对,然后将公钥复制到其他节点上。 2. **配置`slaves`文件**: -在NameNode节点上的`slaves`文件中列出所有的DataNode节点名称。 3. **集群启停脚本**: -使用`start-all.sh`脚本来启动整个集群。 -使用`stop-all.sh`脚本来停止整个集群。 ####总结本文详细介绍了Hadoop2的安装步骤以及一些常用的Shell命令,包括系统配置、Hadoop用户和目录的准备、Hadoop的安装、集群的启动与维护等。通过这些步骤,你可以成功地搭建起一个功能完备的Hadoop2集群,并利用各种命令来管理和监控这个集群。对于那些希望深入了解Hadoop集群部署和管理的人来说,这些信息将是极其宝贵的资源。
hadoop2安装和常用shell命令
相关推荐
HDFS常用Shell命令
HDFS常用Shell命令
1. 显示当前目录结构
Hadoop
22
2024-05-12
HDFS常用Shell命令合集
HDFS 的 Shell 命令集合,入门挺合适的。命令清单全,格式也清楚,复制就能跑。像hdfs dfs -ls这种最常用的指令也都有,适合你边操作边记。命令的用法不绕弯子,看一眼就知道是干嘛的。
命令比较实在,没有废话。比如文件上传用hdfs dfs -put local.txt /data/,路径、文件名写对就行。还有权限查看、删除之类的操作,也都有例子跟着,照着抄一抄就明白。
嗯,有时候命令行比 Web 界面快多了。像批量上传、日志这类场景,Shell 命令更灵活。不太熟命令也别担心,内容偏基础,适合新手慢慢上手。
另外想多了解点 HDFS 相关内容,也可以顺手看看这些:
HDFS
数据挖掘
0
2025-06-16
构建Hadoop环境及使用HDFS Shell命令
Hadoop环境构建及HDFS Shell命令的详细介绍,演示内容生动丰富。
Hadoop
9
2024-07-13
大数据处理中的Hadoop和HBase常见shell命令
Hadoop和HBase在大数据处理中扮演着关键角色。Hadoop作为分布式计算框架,专用于处理大规模数据;而HBase则是基于Hadoop的分布式数据库,用于存储和管理大规模数据。在实际工作中,我们频繁使用Hadoop和HBase的shell命令来管理数据。以下是几个常用的示例:进入HBase shell Console,查看、创建、删除表,以及修改表结构等操作。
Hadoop
8
2024-10-13
Apache Spark Hadoop2兼容版本,无Hive组件
Apache Spark是Apache软件基金会下的开源大数据处理框架,以高效、灵活和易用性著称。\"spark--bin-hadoop2-without-hive.tgz\"是专为Hadoop 2设计的Spark二进制发行版压缩包,不包含Hive组件,适用于无需Hive环境的系统部署和运行。Spark核心概念包括RDD(Resilient Distributed Datasets)、DataFrame和Dataset,架构涵盖Master、Worker节点及Executor,支持Spark Core、Spark SQL、Spark Streaming、MLlib和GraphX等组件。与Had
spark
7
2024-09-13
HBase Shell常用指令总览
HBase是建立在HDFS上的一种分布式、列式存储系统,特别适合处理超大规模数据集的实时读写和随机访问需求。汇总了一些常用的HBase Shell命令及其示例,帮助新手迅速掌握HBase的基本操作。
Hbase
12
2024-10-16
HBase 0.98.13 Hadoop2 预编译二进制包
该资源包含 HBase 0.98.13 版本适配 Hadoop2 的预编译二进制包,为相关问题提供解决方案。
Hbase
16
2024-06-04
HBase Shell命令速查指南
HBase 的 Shell 命令用起来其实挺顺手的,尤其是你要频繁查表、删数据、改结构那种场景,用命令行反而比写代码快多了。scan、put、disable这些命令别说,用几次就熟了。
Hbase-Shell.md算是个比较实用的速查文档,命令列得全,解释也比较接地气,基本上都是你在真实项目里会碰到的。像批量插入、加过滤器查数据、修改列簇这些,都有现成的例子。
比如你要过滤某一列的值,可以搭配RowFilter来用,语法稍微拗口,但看文档里的例子就清楚多了。不熟的命令可以直接复制粘贴到终端里试,不怕错。
文末还贴了好几个相关的过滤器文章链接,有HBase的、Spark的、还有Python写的卡
Hbase
0
2025-06-12
自学DB2常用命令和表空间设置
我自学DB2的笔记,包括日常使用的命令和DB2表空间的设置。
DB2
14
2024-07-16