职责:
1、负责数据分析、加工、清理,相关处理脚本和程序的开发;
2、负责开发大数据工具,如报表平台、多维度分析工具、ETL平台、调度平台的研发;
3、负责分布式大数据平台应用开发(Hadoop/Spark/Hive/HBase等);
4、负责大数据相关平台的维护、优化。
任职要求:
1、本科及以上学历,计算机相关专业,具有5年及以上的大数据ETL或数据开发经验,熟悉大数据组件的维护以及调优;
2、熟练掌握Java或Python编程语言,熟悉大数据架构体系,熟悉Hadoop、HDFS、Hive、HBase、Spark、Kafka等技术中的一个或者多个,熟悉Sqoop、DataX等数据导入工具;
3、能熟练使用Hive、HBase、Spark等加工和处理数据,有海量数据处理经验;
4、有数据仓库开发经验/BI系统开发经验优先;
5、有电商行业数据处理与分析平台开发经验者优先。
因篇幅问题不能全部显示,请点此查看更多更全内容