在Debian上配置Hadoop的步骤大致可以分为以下几个部分:
1. 环境准备
- 更新系统:
sudo apt update sudo apt upgrade
- 安装Java:
sudo apt install openjdk-8-jdk
- 配置环境变量:
echo "export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_202" >> /etc/profile echo "export PATH=$JAVA_HOME/bin:$PATH" >> /etc/profile source /etc/profile java -version
2. 安装Hadoop
- 下载Hadoop:
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/
- 配置Hadoop环境变量:
echo "export HADOOP_HOME=/usr/local/hadoop" >> /etc/profile echo "export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin" >> /etc/profile source /etc/profile
3. 配置Hadoop文件
- core-site.xml:
fs.defaultFS hdfs://namenode:9000
- hdfs-site.xml:
dfs.replication 3 dfs.namenode.name.dir /usr/local/hadoop/dfs/name dfs.datanode.data.dir /usr/local/hadoop/dfs/data
- mapred-site.xml:
mapreduce.framework.name yarn
- yarn-site.xml:
yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler
4. 配置SSH免密码登录
- 生成SSH密钥:
ssh-keygen -t rsa
- 复制公钥到其他节点:
ssh-copy-id root@namenode ssh-copy-id root@slave1 ssh-copy-id root@slave2
5. 格式化HDFS
hdfs namenode -format
6. 启动Hadoop服务
start-dfs.sh start-yarn.sh
7. 验证安装
可以通过Hadoop的Web界面检查集群的状态,例如NameNode的Web界面通常在http://namenode:9000
。
请注意,以上步骤可能会根据具体的Hadoop版本和需求有所不同。建议参考官方文档以获取最准确的配置指南。