大数据工程师简历专业技能怎么写

简历本 03月06日 简历范文      专业技能怎么写

专业技能(案例一)

1.能搭使用Hive和HBase的系统架构,和能用Hive进行海量数据的统计分析以及,能根据需求设计HBase表,能对Hive、HBase进行搭建Hadoop的系统架构和Hadoop集群。 2.能使用开源日志收集框架flume,Kafka消息队列。 3.能够使用Python2.7的版本,进行编程部署, 实现MapReducer框架,解决离线分析的场景和作业。 4.能够使用java,Scala进行项目的开发,能够实现Spark框架的研发作业。 5.能使用SparkStreaming进行实时数据的分析。 6.能使用MapReduce的原理和流程和其API开发应用程序 7.能使用Storm的原理和流程和使用API开发应用程序,以及Storm+Kafka实时流处理架构 8.清楚spark任务提交流程,对spark作业能进行调优 9.能操作MySQL、Oracle数据库 10.能使用Python进行网页爬虫,和Python与MySQL的交互

专业技能(案例二)

对于Linux的基本常用命令比较熟练,可以熟练使用vi编辑器。
熟悉zookeeper分布式协调服务应用,了解zookeeper的运行原理;熟练运用spark,清楚spark的启动过程以及任务运行的基本流程,可以自主完成对spark集群的搭建,熟悉spark-streaming,spark-sql,对于spark的相关算法有一些了解。
熟练掌握scala语言,可以使用scala对spark程序进行一些编写;
熟悉python语言,可以使用python来进行对业务逻辑的处理,以及爬取数据等操作;
熟悉Kafka的工作原理,可以自主完成对Kafka集群的搭建;
熟练运用shell脚本进行编程,可以使用shell脚本来进行一些特定的操作
熟悉hdfs,mapreduce,yarn的工作原理,熟悉Hadoop的生态体系,可以独立完成对于Hadoop集群的搭建,同时对于mapreduce程序的开发也可以独立完成;
熟悉hbase,hive,熟悉flume与Kafka的综合使用。
可以熟练使用eclipse,myeclipse,idea,mysql,等相关开发工具

专业技能(案例三)

Hadoop
PERL
Python
SQL
Hive
C/C++
Java
Linux

专业技能(案例四)

能够安装、部署、Hadoop2.x集群,熟悉Hadoop生态系统的相关产品,熟悉HDFS分布式文件系统,Sqoop数据库ETL工具,Flume日志收集,MapReduce分布式计算框架,熟练掌握Sql/Hql的编写,Zookeeper分布式协作,Yarn资源管理器,Hive数据仓库,HBase实时协作数据库,熟悉Spark内存计算,熟悉MySQL/ORACLE数据库安装、管理、调优、备份、容灾、安全等技能一般,熟悉MapReduce编程。熟悉Linux操作系统,熟悉shell,熟练运用SecureCRT, Xshell,MyEclipse,FileZilla Client等应用软件。

有用
本文内容来自互联网,如果侵犯了您的权益,请联系管理员立即删除(附上内容地址)

相关推荐

  • 大数据工程师简历模板,基本信息,姓名:简历本,求职意向:软件工程师/软件研发工程师/数据库开发工程师,工作经历:进行数据导入导出 sqoop,mr数据清洗,hive,spark分析统计,以及hadoop集群维护,日常数据维护等...
    237人使用
  • 大数据开发工程师简历模板下载word格式,求职意向:大数据开发工程师,工作经历:根据公司发展需要,为公司所做的项目提供技术支持,搭建数据分析平台,对数据进行简单清洗和处理,对项目所需的部分指标进行分析处理,解决项目中出现的部分问题,优化项目代码,减少运行时间。
    3486人使用
  • 数据通信工程师简历,基本信息,姓名:简历本,求职意向:网络信息安全工程师/数据通信工程师/通信技术工程师/网络工程师/电信网络工程师,工作经历:电信级的交换机, bras数据配置,熟悉华为,中兴,爱立信,思科的路由器,交换机数据设备,无线网络的优化,3/4G无线网络优化...
    0人使用
  • 数据通信工程师简历模板,求职意向:数据通信工程师,工作经历:在中粮可口可乐的这段时间里,主要参与一些根据地方不同,市场环境不同的所需要制定的一些特殊对待快消品的方案,一遍适应当地执行环境,和日常的制定督促可口可乐业代日常项目的跟进,参与和快消品行业的竞品对比和应对方式,处理广告公司和中粮可口可乐的活动促销活动的广告制作,根据销量执行公司下发的政策方案,参与节假日和学校影院的方案申请、活动执行。
    555人使用
  • 数据通信工程师个人简历,基本信息,姓名:简历本,求职意向:数据通信工程师,工作经历:客户业务维护,工程实施跟进,维护机房设备运行,日常故障处理...
    0人使用
  • 1)进行测试需求分析,制定测试计划,合理分配测试资源; 2)设计开发测试用例,开发相关自动化测试框架及工具3)负责产品集成测试(功能,性能,稳定性),报告并追踪产品问题,提供系统测试及验收报告 4)与开发团队紧密合作,分析系统性能瓶颈,提供优化意见 5)优化软件质量保证流程,提高效率及实用性
    26665人阅读
  • [产线大数据自动化 专案]编写生产线程式实现工业自动化,以及大数据化,并为生产线的运行提供技术支持。通过对生产线上所有设备传送到Kafka的数据进行实时监听,并依据不同标准对所有数据进行处理,定时反馈给Kafka。同时对异常数据进行累计判断或者清零,对不同级别的异常抛送不同级别的警报到web service,以便送到相应的客户端,发出提示以及警报。后续分别将处理过的数据通过Nifi 传入MQTT和
    7797人阅读
  • 在分支任职大数据工程师,负责大数据产品项目组与咪咕音乐有限公司业务支撑中心部门项目开发及运维工作,主要负责工作内容:1、负责业务支撑中心的一级VGOP、咪咕杭州研发中心对外供数的所有数据维护以及新增接口的开发、增、删、修、调整字段类型等。2、负责中央音乐平台对外全国分省供数业务,涉及到的业务有咪咕彩铃、铃音盒、客户端使用及发展、振铃、全曲及各大话单的数据业务开发及运维、新增加接口数据各省份需求。3
    5240人阅读
  • 软件开发:责任描述:1、参与项目的需求分析和项目构建。2、参与商品展示模块及搜索系统模块的开发及测试3、搜索系统服务接口的开发,及solrCloud的安装及配置4、使用Redis数据库做缓存
    6740人阅读
  • [大数据技能]:熟悉javascript,Node.js,Angular.js等。实作过loopback,Kafka,NPM,ElasticSearch,MQTT,Nifi等。实作部署使用Xampp,FileZilla,Putty等。开发环境:VSCode,Loopback。[数据交互技能]:Java交互数据库#ES,掌握PL/SQL,AngularJS。大数据交互Kafka + ElasticS
    11629人阅读