首页 > 作文

Linux下的如何快速安装Hadoop

更新时间:2023-04-05 09:38:43 阅读: 评论:0

大家都对大数据感兴趣,但是大家都没有想去如何实践到地方,如何落实去学习hadoop,我们学习任何一门技术的时候,都不用想,上来肯定是去安装,然后去实践,不得不说,现在你去网上搜索,如何安装hadoop,那很多出来的都是从 unbutu 系统下如何安装,很多也都讲解的不是很清楚,阿粉也比较想学习,所以就准备了如何安装 hadoop 的 linux 的教程,大家上手就能学习。阿粉就开始给大家写一个安装 hadoop 的教程。

准备工作

1.我们首先可以去阿里云或者华为云去租用一台服务器,毕竟一个初级版本的服务器,也没有那么贵,阿粉还是用的之前租用的那台,我们选择安装 linux8 的版本,如果是本机的话,你需要下载 centos8 的镜像,然后通过虚拟机安装到 vm 上就可以了,安装完成我们就可以开始安装 hadoop 了

我们先说说 hadoop 都能干啥,以及人们经常对 hadoop 误解。

hadoop主要是分布式计算和存储的框架,所以hadoop工作过程主要依赖于hdfs(hadoop distributed file system)分布式存储系统和mapreduce分布式计算框架。

但是很多人就会对 hadoop 产生一个误解,有些非常捧 hadoop 的人就会说,hadoop 什么东西都可以做,实际上不是的,每一项技术的出现,都是对应着解决不同的问题的,比如我们接下来要学习的 hadoop 。hadoop适合来做数据分析,但是绝对不是 bi ,传统 bi 是属于数据展现层(data prentation),hadoop就是专注在半结构化、非结构化数据的数据载体,跟bi是不同层次的概念。

还有人说 hadoop 就是 etl ,就相当于数据处理,但是,hadoop 并不是一个绝对意义上的 etl 。

安装 hadoop 教程

1.安装ssh

yum install openssh-rver 

openssh是cure shell的一个开源实现,openss轮滑人h rver安装完成后在/etc/init.d目录下应该会增加一个名为sshd的服务,一会我们就要把生成的密钥放到指定位置,然后用来当作之后的身份验证。

2.安装 rsync

yum -y install rsync 

3.产生 ssh 密钥之后继续进行后续的身份验证

ssh-keygen -t dsa -p '' -f ~/.ssh/id_dsa 

4.把产生的密钥放入许可文件中

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

安装hadoop

安装 hadoop 之前我们要先把 jdk 安装好,配置好环境变量,出现下面这个样子,就说明 jdk 已经安装完成了。

1.解压hadoop

我们先要把 hadoop 放到我们的服务器上,就像阿粉这个样子,

然后解压 tar zxvf hadoop-3.3.1.tar.gz

2.修改bashrc文件

vim ~/.bashrc

export java_home=/usr/lib/jvm/java-8-openjdk-amd64/export hadoop_home=/usr/local/hadoopexport path=$path:$hadoop_home/binexport path=$path:$hadoop_home/sbinexport hadoop_mapred_home=$hadoop_homeexport hadoop_common_home=$hadoop_homeexport hadoop_hdfs_home=$hadoop_homeexport yarn_home=$hadoop_homeexport hadoop_common_lib_native_dir=$hadoop_home/lib/nativeexport hadoop_opts="-djava.library.path=$hadoop_home/lib"export java_library_path=$hadoop_home/lib/native:$java_library_path

复制到文件中保存退出

3.生效文件

source ~/.bashrc

4.修改配置文件 etc/hadoop/core-site.xml

 <property>        <name>fs.defaultfs</name>        <value>hdfs://localhost:9000</value>    </property> <!-- 缓存存储路径 --> <property>        <name>hadoop.tmp.dir</name>        <value>/app/hadooptemp</value>    </property>

5.修改 etc/hadoop/hdfs-site.xml

 <!-- 默认为3,由于是单机,所以配置1 --> <property>        <name>dfs.replication</name>        <value>1</value>    </property> <!-- 配置http访问地址 --> <property>   <name>dfs.http.address</name>   <value>0.0.0陆游字.0:9870</value> </property>

6.修改 etc/hadoop/hadoop-env.sh

export java_home=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.212.b04-0.el7_6.x86_64 

7.修改etc/hadoop/yarn-env.sh文件

export java_home=/usr/lib/jvm/java-1.8.0-openjdk-1.宁夏最新新闻8.0.212.b04-0.el7_6.x86_64 

8.修改sbin/stop-dfs.sh文件,在顶部增加

hdfs_namenode_ur=roothdfs_datanode_ur=roothdfs_condarynamenode_ur=rootyarn_resourcemanager_ur=rootyarn_nodemanager_ur=root

9-1.修改start-yarn.sh 文件

yarn_resourcemanager_ur=rootha教育小故事doop_cure_dn_ur=yarnyarn_nodemanager_ur=root

9-2.修改stop-yarn.sh文件

yarn_resourcemanager_ur=roothadoop_cure_dn_ur=yarnyarn_nodemanager_ur=root

上面的这些命令主要是用于当你启动 hadoop 的时候,会提示认证不通过。

10.格式化,进入hadoop的bin文件夹,执行下面的命令

./hdfs namenode -format

11.进入sbin文件夹,启动hadoop

./start-dfs.sh 

也可以直接全部启动 ./start-all.sh

然后直接访问8088端口即可

12.防火墙开启端口,如果用的云服务器,请将9870端口加入安全组出入口

//添加9870端口到防火墙 firewall-cmd --zone=public --add-por写春天的作文t=9870/tcp --permanent //重启防火墙 firewall-cmd --reload 

13.输入 jps 如果是如果是4个或者5个就配置成功,再继续

通过web访问hadoop,访问地址:http://ip地址:9870

当我们看到这个的时候,说明我们已经安装成功了。注意,hadoop3.x 版本的看 hadoop web端的端口没有变化,但是 hdfs 端 则由 50070 变成了 9870 这个需要注意一下呦,你学会了么?

本文发布于:2023-04-05 09:38:42,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/zuowen/caee3d133bf8246a4f6bcc35eafa4272.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

本文word下载地址:Linux下的如何快速安装Hadoop.doc

本文 PDF 下载地址:Linux下的如何快速安装Hadoop.pdf

标签:文件   端口   密钥   数据
相关文章
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图