首页 > 范文 > 大数据求职简历范文(热门3篇)

大数据求职简历范文(热门3篇)

奥奇吧 收藏 投稿 点赞 分享
大数据求职简历范文(热门3篇)

微信扫码分享

大数据求职简历范文 第1篇

工作时间:2014-05 - 至今

公司名称:简历本招聘咨询有限公司 | 所在部门:软件与服务事业集团/系统技术和优化部 | 所在岗位:大数据工程师,标准化工程师

工作描述:1)对外进行中国区大数据客户支持(需求分析,大数据基准测试,问题定位,系统调优等),分析系统性能瓶颈,提供优化意见;2)对内对英特尔数据中心事业部提供硬件性能数据分析和性能调优支持(撰写内部技术报告--Server,SSD);3)与大数据合作伙伴(Cloudera等)合作,提供对大数据平台相关组件(Hadoop/Hive/Spark)的功能、性能、稳定性的测试分析报告;4)大数据测试基准的开发与维护(TPCx-BB, TPC-DS)

大数据求职简历范文 第2篇

[大数据技能]:熟悉javascript,,等。实作过loopback,Kafka,NPM,ElasticSearch,MQTT,Nifi等。实作部署使用Xampp,FileZilla,Putty等。开发环境:VSCode,Loopback。[数据交互技能]:Java交互数据库&ES,掌握PL/SQL,AngularJS。大数据交互Kafka + ElasticSearch + Nifi + MQTT + Nodejs + Web整合。数据库:SQL server,MySQL,Oracle。[前端技能]:熟练JAVA,HTML,CSS,XML等;数据结构与算法;WEB开发技术,JSP(Servlet)技术,JQuery框架等。了解并使用过REST API。开发环境:Eclipse;SQL server,Google chrome。[办公技能]:熟练使用Microsoft Office/Outlook/Lync/Skype[语言能力]:大学英语六级CET-6。[个人能力]:沟通能力良好,学习能力强。负责认真,协作意识强。code习惯良好。

大数据求职简历范文 第3篇

1、熟悉hadoop集群,熟悉分布式系统原理,期望从事hadoop大数据开发、分析等方向的工作2、熟悉spark、hive、hbase、sqoop、zookeeper、flume等大数据生态圈组件及使用,掌握YARN的工作原理,以及Hadoop不同版本的新特性3、熟悉java、MySQL、Oracle10g/11g、shell4、熟悉Mapreduce及Hive的数据清洗、分析和hive的调优5、熟练运用Xshell、SecureCRT、MyEclipse、FileZilla Client等可视化软件6、熟悉spark以及掌握scala语言编写7、了解Python,可以正常阅读代码8、工作态度端正,有上进心,能承受较强压力,期望长期在公司工作,与公司共同发展

精选图文

221381
领取福利

微信扫码领取福利

大数据求职简历范文(热门3篇)

微信扫码分享