Jepson的ITPUB博客

加入 纯技术爱好者群【Hadoop/CDH/Hive/Hbase/Spark】:258669058 / 126181630 不定期发布资料的word文档、bug和心得!

  • 博客访问: 266350
  • 博文数量: 187
  • 用 户 组: 普通用户
  • 注册时间: 2015-01-03 09:28
  • 认证徽章:
个人简介

遇之问题,与之斗争,穷尽方法,提高自己,重新再来。 https://github.com/Hackeruncle

文章分类

全部博文(187)

文章存档

2018年(1)

2017年(46)

2016年(140)

发布时间:2018-04-08 13:49:35

Batch containing 11 record(s) expired due to timeout while requesting metadata from brokers for onlinelogs-1......【阅读全文】

阅读(126) | 评论(0) | 转发(0)

发布时间:2017-10-24 12:08:37

一.场景:     spark通过phoenix 读取hbase表,其实说白了先要去Zookeeper建立connection。二.代码:点击(此处)折叠或打开val zkUrl = "192.168.100.39,192.168.100.40,192.168.100.41:2181" val formatStr = "org.apache.phoenix.spark"val oms_order.........【阅读全文】

阅读(165) | 评论(0) | 转发(0)

发布时间:2017-08-14 18:46:01

maven报错:找不到符号在一开始遇到maven问题时,网路上可以搜到的资料基本支持以下几种情况: 1.清理cache - 使用mvn clean命令清理 - 使用IDEA里面的Invalid Cache清理 2.编码格式不统一 - 在pom.xml中将compiler的编码格式设为UTF-8点击(此处)折叠或打.........【阅读全文】

阅读(481) | 评论(0) | 转发(0)

发布时间:2017-07-06 14:01:23

环境:1.在hadoop36机器,ping hadoop38机器的pod的ip,为172.30.1.42.该pod的service的external-ip的ip为hadoop36的ip3.下面机器的ip,已经使用 xx.xx.xx.来替代和加图层覆盖掉问题:  无法通过服务EXTERNAL-IP+port,访问对应的pod的服务,说白了,就是无法访问pod ip+port,无法ping通172.30.1.4步骤:1..........【阅读全文】

阅读(478) | 评论(0) | 转发(0)

发布时间:2017-06-15 12:53:23

1 写在前面的话 有些小伙伴可能会问:Spark官网不是已经提供了Spark针对不同版本的安装包了吗,我们为什么还需要对Spark源码进行编译呢?针对这个问题我们到Spark官网: spark.apache.org来看下,如下图所示:Spark官网的确是提供了一些Hadoop版本的Spark安装包,但是提供的这些是否能够满足我们的要求呢?答案肯定是.........【阅读全文】

阅读(1295) | 评论(0) | 转发(1)
给主人留下些什么吧!~~
留言热议
请登录后留言。

登录 注册