这是一个创建于 1690 天前的主题,其中的信息可能已经有所发展或是发生改变。
工作职责
1. 构建分布式大数据服务平台为每天数以千亿计,而且仍在不停增长的数据,改进数据存储、查询数据,确保整个数据平台的承载能力和运算效率;
2. 负责 HDFS 、HBase 、Druid 等技术栈的开发和管理 ,解决实际业务挑战,与业务一起解决性能优化、容量规划等问题,保障集群高效稳定运行;
岗位要求:
1. 计算机或相关专业本科以上学历,3 年以上工作经验;
2. 精通 Java/Scala 程序开发(至少一种),熟悉 Linux/Unix 开发环境;
3. 熟悉 HBase 分布式系统及工作原理,有 HBase 底层源码贡献者优先;
4. 熟悉 HDFS 源码,有 Hadoop 底层源码贡献者优先;
4. 有大规模分布式系统开发、维护经验,有故障处理能力;
5. 具有良好的沟通协作能力,具有较强的分享精神;
微信:18621580540