这是一个创建于 1970 天前的主题,其中的信息可能已经有所发展或是发生改变。
岗位职责:
1. 负责 Hadoop/Hive/Yarn/Spark/Kafka 等组件的运维保障;
2. 负责大数据平台自动化运维以及数据化运营平台开发工作;
3. 深入理解大数据平台架构,发现并解决重大故障及性能瓶颈,提供解决方案;
4. 负责大数据平台系统的架构审核、业务监控、持续交付、应急响应、容量规划等
任职资格:
1. 具有 100 台+大数据集群运维经验,精通 jVM 性能优化;
2. 精通 hadoop、hive、spark 等开源计算框架部署、运维、调优;
3. 熟悉 yarn、k8s 等容器化部署经验;
4. 熟练 Linux 操作系统,熟悉 Shell 脚本编程及常用 Linux 操作命令