岗位职责:
1、负责大数据分布式计算的架构设计、研发和调优;
2、负责开发数据ETL引擎,实现海量数据抽取、清洗、支持、维护等工作;
3、根据业务需求使用Spark或Flink进行数据处理、计算、挖掘等工作;
4、负责计算代码的优化和改进。
任职要求:
1、计算机或相关专业本科以上学历;
2、精通Java/Scala程序开发(至少一种),熟悉Linux开发环境;
3、熟悉Hadoop、Spark、流式计算、YARN资源管理;
4、两年以上大规模分布式程序开发的项目经验;有网络安全数据分析经验优先;
5、具有良好的沟通协作能力,具有较强的分享意愿,对业务有很好的理解能力。
太原 - 万柏林
思特奇太原 - 万柏林
山西汇能科技有限公司太原 - 小店
北京信联数安科技有限公司太原 - 小店
中电科电科院科技集团有限公司唐山分公司太原 - 小店
山西智邦能源集团有限公司太原 - 小店
山西友信科技发展有限公司