岗位职责 1 、负责公司大数据基座的运维、监控、审查、故障响应、问题排查解决工作 2 、为公司的数据基础设施负责,持续提升服务质量,提升用户体验;和产研团队直接合作,推进问题的解决,以及数据产品的持续优化 3 、深入理解系统痛点,响应并推动预案建设,容灾体系建设,技术项目推进落地等事宜,持续提升研发效率和服务稳定性 岗位要求 1 、本科及以上学历,具有 5 年以上大数据系统相关运维经验 2 、熟悉 Linux 系统、网络、硬件等相关知识,具备较强的 Troubleshooting 能力 3 、熟悉 Hadoop 大数据生态,掌握常用开源组件的配置,故障排查,解决问题的能力,包括但不限于 Hadoop 、Hive 、Spark 、Flink 、Clickhouse 、Presto 、Kafka 等组件 4 、至少使用过一种自动化部署工具,包括但不仅限于:Ansible 、Saltstack 5 、掌握至少一门脚本/开发语言,包括但不仅限于:Python 、Shell 、Java 、Go 6 、对常见云平台(阿里云、AWS 等)有一定的了解,有使用经验者优先 7 、熟悉 Docker 、K8S 等容器技术和工具者优先 8 、具有良好的沟通、组织与协调能力,责任心强
面试通过后公司办理工作签证,新加坡生活成本大薪资涨幅会高一些 以上岗位要求:对标 P6+、P7 ( P7 以上的目前没有需求)+互联网大厂背景,本科及以上学历,英文口语不做要求,能看懂工作邮件即可
1
yumeiren526 OP 感兴趣的直接加微信详聊:Mi_2300
|
2
soroslee 2023-09-07 22:48:54 +08:00
什么公司
|