十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
这篇文章主要介绍“hadoop3 Java client客户端认证的方法是什么”,在日常操作中,相信很多人在hadoop3 Java client客户端认证的方法是什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”hadoop3 Java client客户端认证的方法是什么”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
公司主营业务:做网站、成都网站制作、移动网站开发等业务。帮助企业客户真正实现互联网宣传,提高企业的竞争能力。创新互联建站是一支青春激扬、勤奋敬业、活力青春激扬、勤奋敬业、活力澎湃、和谐高效的团队。公司秉承以“开放、自由、严谨、自律”为核心的企业文化,感谢他们对我们的高要求,感谢他们从不同领域给我们带来的挑战,让我们激情的团队有机会用头脑与智慧不断的给客户带来惊喜。创新互联建站推出西双版纳免费做网站回馈大家。
hadoop集群升级hadoop3,并需要Kerberos认证,hadoop3代码包做了合并,引用jar包如下:
org.apache.hadoop hadoop-hdfs 3.1.1 org.apache.hadoop hadoop-common 3.1.1 org.apache.hadoop hadoop-client 3.1.1
认证方法
Configuration config = new Configuration(); config.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem"); config.set("dfs.client.block.write.replace-datanode-on-failure.policy", "NEVER"); //开始Kerberos认证 String krb5File = "/etc/krb5.conf"; System.setProperty("java.security.krb5.conf", krb5File); config.set("hadoop.security.authentication", "kerberos"); //添加集群默认配置(非必须) configuration.addResource(new Path("/etc/hadoop/conf/hdfs-site.xml")); configuration.addResource(new Path("/etc/hadoop/conf/core-site.xml")); UserGroupInformation.setConfiguration(config); try { UserGroupInformation.loginUserFromKeytab(kerUser, keyPath); } catch (IOException e) { e.printStackTrace(); } //结束Kerberos认证 URI uri = new URI("hdfs://集群名或namenode ip地址"); /** * 代码指定集群名和namenode节点 *conf.set("fs.defaultFS", "hdfs://yiie"); *conf.set("dfs.nameservices","yiie"); *conf.set("dfs.ha.namenodes.yiie", "nn1,nn2"); *conf.set("dfs.namenode.rpc-address.yiie.nn1", "192.168.116.116:8020"); *conf.set("dfs.namenode.rpc-address.yiie.nn2", "192.168.116.116:8020"); *conf.set("dfs.client.failover.proxy.provider.yiie","org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider"); *conf.setBoolean("dfs.ha.automatic-failover.enabled",true); * */ FileSystem.get(uri, config);
到此,关于“hadoop3 Java client客户端认证的方法是什么”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!