1.计算机相关专业大专以上学历;
2.2年以上大数据产品或项目开发经验,精通Hadoop生态圈,熟练使用Spark,HBase、Hive、Kafka、Redis等;
3.精通SQL,熟练使用HSQL实现复杂数据处理逻辑,并具备数据处理调优的能力;
4.熟悉Linux开发环境,熟悉Linux的shell命令。
5.具有良好的逻辑思维能力和严谨的程序开发思想,具备问题排查与处理的能力;
6.良好的团队精神和合作意识,强烈的责任心,对工作有激情,良好的`沟通能力,能吃苦耐劳;
7.有大数据项目或产品背景者优先;
8.有使用Spark SQL进行数据处理,并具有Spark SQL优化经验者优先。
9.有Python或者Shell脚本开发经验优先
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- dfix.cn 版权所有 湘ICP备2024080961号-1
违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务