博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop实战(4)_Hadoop的集群管理和资源分配
阅读量:5859 次
发布时间:2019-06-19

本文共 4573 字,大约阅读时间需要 15 分钟。

系列目录:

DataNode数据目录

如果有多个挂载点,可以有多个DataNode数据目录。

目前服务器硬件,标准小型机配置:32核、64G(128G)、64T(4T*16盘SAS盘)。通常为了提升磁盘吞吐量,每个盘单独挂载。/data1、/data2、……、/data16。优点是大大提升磁盘的吞吐量(IO性能),缺点是出现坏盘时会造成一定影响。

HDFS配置

DataNode数据目录是本地参数

部署客户端配置,是把cm里的配置更新同步到每个节点的xml配置文件里。

hadoop配置文件,/etc/hadoop/conf,配置文件有服务端参数和客户端参数,服务端参数需要重启服务才生效,客户端的参数修改之后立即起效。

如dfs.replication=2,配置完后,HDFS服务提示过期配置:需要重新部署客户端配置。

上节遗留问题

HDFS在cdhslave1启动失败原因,是cdhslave1上没有安装jdk,解决办法:yum install -y oracle-j2sdk1.7.x86_64

http://cdhmaster:7180,访问不了,检查服务启动情况。

chkconfig --list | grep clouderaservice cloudera-scm-server statusnetstat -nltp | grep 7180复制代码

NTP同步问题,在slave机器上,手工执行一次同步server即可。

ntpdate 192.168.200.100复制代码

ssh无密码访问,CDH版本不需要设置,因为CDH版本集群间通过相同账号密码访问。

JDK环境变量,CDH版本可以不设置JAVA_HOME,因为自身使用jdk1.7时会带上绝对路径。

问题:/var/www/html/cm5.9.0/repodata下的文件是怎么产生的?

1、yum install -y createrepo.noarch

which createrepoyum list | grep createrepoyum install -y createrepo.noarch复制代码

2、手工下载http://archive.cloudera.com/cm5/redhat/6/x86_64/cm/5.9.0/RPMS/x86_64/下的rpm文件至cm5.9.0目录下。

3、执行createrepo cm5.9.0即可repodata目录下的文件。然后浏览器录入http://cdhmaster/cm5.9.0/即可以访问。注意启动httpd服务。

cm5.9.0.tar包的生成

1、cm5的rpm包获取,http://archive.cloudera.com/cm5/redhat/6/x86_64/cm/5.9.0/RPMS/x86_64/

cloudera-manager-agent-5.9.0-1.cm590.p0.249.el6.x86_64.rpmcloudera-manager-daemons-5.9.0-1.cm590.p0.249.el6.x86_64.rpmcloudera-manager-server-5.9.0-1.cm590.p0.249.el6.x86_64.rpmcloudera-manager-server-db-2-5.9.0-1.cm590.p0.249.el6.x86_64.rpmenterprise-debuginfo-5.9.0-1.cm590.p0.249.el6.x86_64.rpmjdk-6u31-linux-amd64.rpmoracle-j2sdk1.7-1.7.0+update67-1.x86_64.rpm复制代码

2、cloudera-manager-installer.bin获取,http://archive.cloudera.com/cm5/installer/5.9.0/

cloudera-manager-installer.bin复制代码

3、cdh5的parcel获取,http://archive.cloudera.com/cdh5/parcels/5.9.0/

CDH-5.9.0-1.cdh5.9.0.p0.23-el6.parcelCDH-5.9.0-1.cdh5.9.0.p0.23-el6.parcel.shamanifest.json复制代码

4、生成repodata目录下的文件,

问题:/var/www/html/cm5.9.0/repodata下的文件是怎么产生的?

1、yum install -y createrepo.noarch

which createrepoyum list | grep createrepoyum install -y createrepo.noarch复制代码

2、手工下载http://archive.cloudera.com/cm5/redhat/6/x86_64/cm/5.9.0/RPMS/x86_64/下的rpm文件至cm5.9.0目录下。

3、执行createrepo cm5.9.0即可repodata目录下的文件。然后浏览器录入http://cdhmaster/cm5.9.0/即可以访问。注意启动httpd服务。

界面化Cloudera Manager集群管理

节点角色分配

1、HDFS中NN和SNN不在一个节点上。

2、商用集群,NN单独一台,不会和DN耦合一起。

3、每个节点上尽量均衡负载。

把节点1上的角色转移到节点2上,在服务-实例下进行调整,

1、在节点1停止该角色(HDFS的DataNode除外),

2、在节点1上删除该角色,

3、服务-实例-添加角色实例,选择节点2即可。

DN:存储数据。如果要把DN迁移到其他节点,需要:

1、先解除授权,正常退役方式,自动把该DN的数据迁移至其他可用节点DN上。如果数据多,过程慢。

2、删除该节点,同时删除该节点/dfs/dn。

集群环境测试

Hadoop shell命令操作分布式文件系统(HDFS)。

Linux shell操作文件系统。

hadoop fs -ls /ls: Call From cdhmaster/192.168.200.100 to cdhmaster:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused# 部署客户端配置执行一下即可复制代码

对Linux来讲,管理员是root。对于HDFS来讲,root是普通账户,hdfs才是管理员帐户,具有最大权限。

[root@cdhmaster ~]# hadoop fs -put anaconda-ks.cfg /userput: Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x[root@cdhmaster ~]# su - hdfs[hdfs@cdhmaster ~]$ hadoop fs -chmod 777 /user[hdfs@cdhmaster ~]$ hadoop fs -ls /Found 2 itemsdrwxrwxrwx   - hdfs supergroup          0 2017-10-23 10:36 /tmpdrwxrwxrwx   - hdfs supergroup          0 2017-10-23 10:36 /user复制代码

Yarn产生背景和架构原理

HDFS、Yarn资源分配

比如服务器的资源是:64G、32核、64T,应该如何利用?

在服务-配置-资源管理调整,

HDFS资源分配

Balancer的Java堆栈大小,10G,Balancer Default Group,注意看该选项是针对哪个角色。

DataNode的Java堆栈大小,DataNode Default Group,15G。

用于缓存的最大内存,DataNode Default Group,10G。

NameNode的Java堆栈大小,15G。上限,一般情况下不会耗尽。

Secondary NameNode的Java堆栈大小,5G。

Yarn资源分配

JobHistory Server Server的Java堆栈大小,2G。

NodeManager的Java堆栈大小,20G。

容器内存,20G。与NodeManager保持一致。

容器虚拟CPU内核yarn.nodemanager.resource.cpuvcores,26。

ResourceManager的Java堆栈大小,5G。

最大容器内存,20G。与NodeManager保持一致。

最大容器虚拟CPU内核数量:26。

free,集群资源所用百分比没上去,两个原因:一是作业没跑,二是资源划分少了。

top,查看资源使用情况。top下再shift+mM,查看每个作业内存使用情况的排序。top下再1,查看每核CPU的使用情况,监测集群负载的压力。


问题:./cloudera-manager-installer.bin失败会改yum源,多了两个/etc/yum.repos.d/cloudermanager.repo.rpmsave和repo.rpmnew?执行./cloudera-manager-installer.bin要带上--skip_repo_package=1,就不会产生这两个文件。如果产生了,把repo.rpmnew删掉,cloudermanager.repo.rpmsave修改为cloudermanager.repo,才起作用,再次执行时带上参数执行即可。

提示过期配置,修改过服务端的配置时,会提示服务过期,解决办法:1、执行部署客户端配置,作用是把界面里修改的地方同步到节点的/etc/hadoop/conf目录下。2、重启服务。

安装失败,无法接收Agent发出的检测信号,首先查看agent的日志/var/log/cloudera-scm-agent/,cm server的日志/var/log/cloudera-scm-server,看到报错里提示说有个supervisor之类的占用了端口,解决办法:ps -ef|grep supervisorkill -9 pid,7180界面里重试即可。


Yarn的三大调度策略


微信公众号「数据分析」,分享数据科学家的自我修养,既然遇见,不如一起成长。

转载请注明:转载自微信公众号「数据分析」


读者交流电报群:

https://t.me/sspadluo

转载于:https://juejin.im/post/5a6408e5518825545d75e019

你可能感兴趣的文章
Esper学习笔记三:EPL语法(1)
查看>>
dcoker 搭建 elk环境
查看>>
Spring源码深度解析:学习笔记
查看>>
python+django(admin管理工具)
查看>>
IPv6中国迎来网络主权博弈的关键时刻
查看>>
如何在Rancher 2.0中使用服务发现
查看>>
Docker命令行与守护进程如何交互?
查看>>
阿里官方Java代码规范标准
查看>>
iframe标签使用总结
查看>>
Taro请求问题
查看>>
我理解的Java并发基础(五):并发工具类和ThreadLocal
查看>>
一、ActiveMQ--起手问题记录
查看>>
五月SSL行业新闻回顾
查看>>
解决overflow: auto在Ios中滑动不流畅
查看>>
SpringCloud(二):注册中心Eureka
查看>>
启锐 588 打印机每次打印都流出一部分,没有重新切换纸张
查看>>
小程序 获取openid unionid
查看>>
redis info详解
查看>>
高阶特性
查看>>
MongoDB最简单的入门教程之三 使用Java代码往MongoDB里插入数据
查看>>