快上网专注成都网站设计 成都网站制作 成都网站建设
成都网站建设公司服务热线:028-86922220

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

如何理解Yarn的日志聚合

本篇文章给大家分享的是有关如何理解Yarn的日志聚合,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。

在息烽等地区,都构建了全面的区域性战略布局,加强发展的系统性、市场前瞻性、产品创新能力,以专注、极致的服务理念,为客户提供成都做网站、网站建设 网站设计制作按需求定制开发,公司网站建设,企业网站建设,品牌网站建设,成都全网营销推广,外贸网站建设,息烽网站建设费用合理。

1、Yarn日志聚合

Yarn中的任务执行完成后,再想查看历史日志一般都查不到了,因为这时候运行任务的Container已经释放了,这种情况我们可以开启Yarn的日志聚合功能。

首先配置yarn-site.xml



        yarn.nodemanager.aux-services
        mapreduce_shuffle



    yarn.log-aggregation-enable
    true


    yarn.log-aggregation.retain-seconds
    604800



    yarn.nodemanager.remote-app-log-dirs
    /tmp/logs


        yarn.log.server.url
        http://localhost:19888/jobhistory/job/
 

然后启动history-server,RM,NM

start-yarn.cmd,sbin\mr-jobhistory-daemon.sh start historyserver

提交mapreduce作业到Yarn等执行完成后看看历史日志服务器能否看到。

提示:最好在linux上安装,我在windows下启动historyServer失败了。

【yarn日志参数】

yarn.log-aggregation-enable      true        执行结束后收集各个container本地的日志

yarn.log-aggregation.retain-seconds  2592000    收集的日志的保留时间,以秒为单位,到时后被删除,保留30天后删除

yarn.log.server.url   http://hostname:19888/jobhistory/logs   log server的地址yarn.nodemanager.local-dirs   /hadoop/yarn/local  存放application执行本地文件的根目录,执行完毕后删除,按用户名存储

yarn.nodemanager.log-dirs  /hadoop/yarn/log 存放application本地执行日志的根目录,执行完毕后删除,按用户名存储

yarn.nodemanager.log.retain-second 604800  日志的保留时间,log aggregation没有enable时,有效

yarn.nodemanager.remote-app-log-dir  /app-logs  聚合日志后在hdfs的存放地址

yarn.nodemanager.remote-app-log-dir-suffix  logs   集合日志后的存放地址由 ${remote-app-log-dir}/${user}/{thisParam}构成

yarn.nodemanager.delete.debug-delay-sec 600  application执行结束后延迟10min删除本地文件及日志

2、Spark On Yarn日志

Spark本身也有日志聚合功能(日志聚合是为了程序运行完成之后还能看到日志,否则只有在运行过程中才能看日志,因为运行完之后executor就释放了)

配置Spark日志聚合,在spark-defaults.conf中设置:

spark.eventLog.enable=true

spark.eventLog.dir = hdfs:///spark-history/logs

然后启动spark historyServer就可以在默认端口18080上看到spark的历史聚合日志了。

当在Yarn上提交spark的时候,Yarn的8088端口上进入任务的History链接,默认是到Yarn的historyServer的端口19888的,不会自动跳转到Spark的18080端口。

如果要自动跳转到Spark的historyServer 18080端口,需要在spark-defaults.conf中添加配置:

spark.yarn.historyServer.address=http://spark-history:18080

添加SPARK_HISTORY_OPTS参数
# vi spark-env.sh
#!/usr/bin/env bash

export SCALA_HOME=/root/learnproject/app/scala
export JAVA_HOME=/usr/java/jdk1.8.0_111
export HADOOP_CONF_DIR=/root/learnproject/app/hadoop/etc/hadoop

export SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://mycluster/spark/historylog \
-Dspark.history.ui.port=18080 \
-Dspark.history.retainedApplications=20"

然后就可以了。

以上就是如何理解Yarn的日志聚合,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注创新互联行业资讯频道。


当前文章:如何理解Yarn的日志聚合
文章位置:http://6mz.cn/article/ppgihp.html

其他资讯