大数据工程师简历项目经验怎么写

简历本 01月26日 简历范文      项目经验怎么写

项目经验(案例一)

项目时间:2010-10 - 2012-03

项目名称:Intel Expressway Cloud Access 360

项目描述:
项目介绍
Intel Expressway Cloud Access 360是一款Intel公司设计开发的云接入控制软件,可向企业用户提供在完全部署云之前所需的基础云启动功能,比如单点登录(SSO)、账户配置(包括权限管理),双因素认证(包括动态密码)等。
我的职责
负责EndToEnd测试框架、测试用例的开发与维护(Java-based)
负责Configuration/UI测试框架、测试用例的开发与维护(基于Selenium )
协助开发人员对客户问题的进行分析和定位
协助售前人员向客户进行产品原型的功能展示

项目经验(案例二)

项目时间:2015-12 - 2016-08

项目名称:乐玩家社区用户行为分析系统

项目描述:
项目介绍
项目名称 : 乐玩家社区用户行为分析系统(离线数据分析平台)
技术架构 : Hadoop+Zookeeper+Flume+Hive+Hbase+Oozie +Sqoop+Mysql+JDBC+Highcharts
开发环境 : Linux+Window+IDEA+Tomcat +Maven+Jdk
项目描述 : 乐玩家社区是联想手机社区论坛,用于用户粉丝交流互动,同时发布联想手机的各个品
牌宣传信息,以及收集用户反馈,用户可以在上面发帖,提建议,发起各种交流活动,通过
对乐玩家社区网站的日志进行分析,计算网站关键指标,其中关键性指标有,浏览量:页面
浏览量即为PV,每日登陆用户数UV,每周UV 。跳出率=跳出数/PV:跳出率
是非常重要的访客黏性指标,它显示了访客对网站的兴趣程度:跳出率越低说明流量质量越
好,访客对网站的内容越感兴趣,这些访客越可能是网站的有效用户、忠实用户。板块访问
量pv,和板块独立ip访问量。多维度用户留存率
项目职责:负责项目的集群搭建部署,需求分析, 参与库表的设计及代码的编写和测试优化工作
开发步骤:flume通过接口把数据导入到hdfs中,通过mapreduce对数据进行清洗,生成规范数据文件上传到hdfs
使用hive进行数据的多维分析,把hive分析结果使用sqoop导出到mysql中,提供图表和表格进行数据展示
功能模块 : 用户基本信息分析模块、浏览器信息分析模块、地域信息分析模块、
用户浏览深度分析模块、外链数据分析模块、订单信息分析模块以及事件分析模块
我的职责

项目经验(案例三)

项目时间:2017-03 - 2017-10

项目名称:实现对TPCx-BB大尺度因子的功能支持和性能调优

项目描述:
项目介绍
基于CDH平台,实现对TPCx-BB大尺度因子(10TB、30TB)的功能支持和性能调优。
我的职责
负责基于Intel硬件环境和CDH软件平台,进行Hadoop/Hive/Spark测试环境的准备和搭建。
负责分析影响Hive-on-MapReduce, Hive-on-Spark两个执行引擎在大尺度因子(10TB、30TB)上功能的主要问题,并找出解决方案。
负责分析Hive-on-MapReduce, Hive-on-Spark两个执行引擎在大尺度因子(10TB、30TB)上的性能,并进行针对性的调优或优化。

项目经验(案例四)

项目时间:2016-07 - 2016-12

项目名称:Intel和京东大数据团队合作子项目--大数据测试基准PoC

项目描述:
项目介绍
Intel和京东大数据团队合作子项目--大数据测试基准PoC。目的是评估京东现有大数据环境的性能指标,寻找可能的软硬件优化方案。
我的职责
第一阶段:
负责对京东大数据团队进行TPCx-BB的特性介绍, 与京东团队合作确定具体的PoC实验方案。
负责在京东实验室环境进行TPCx-BB现场技术支持,基于TPCx-BB对京东现场实验环境的软硬件环境进行评估,建议可能的软件、硬件优化方案(如Hadoop参数, 网络配置等)。

第二阶段:
远程指导京东团队部署运用TPCx-BB, 并回答京东团队对TPCx-BB本身及软硬件测评结果提出的技术问题。
负责按照京东现有软硬件配置,在Intel实验室搭建模拟实验环境,基于TPCx-BB收集硬件升级(如CPU,网络升级)所能带来的具体性能增益,提供给Intel售前团队,为评估京东硬件升级的成本收益情况提供参考。

有用
本文内容来自互联网,如果侵犯了您的权益,请联系管理员立即删除(附上内容地址)

相关推荐

  • 大数据工程师简历模板,基本信息,姓名:简历本,求职意向:软件工程师/软件研发工程师/数据库开发工程师,工作经历:进行数据导入导出 sqoop,mr数据清洗,hive,spark分析统计,以及hadoop集群维护,日常数据维护等...
    237人使用
  • 大数据开发工程师简历模板下载word格式,求职意向:大数据开发工程师,工作经历:根据公司发展需要,为公司所做的项目提供技术支持,搭建数据分析平台,对数据进行简单清洗和处理,对项目所需的部分指标进行分析处理,解决项目中出现的部分问题,优化项目代码,减少运行时间。
    3486人使用
  • 数据通信工程师简历,基本信息,姓名:简历本,求职意向:网络信息安全工程师/数据通信工程师/通信技术工程师/网络工程师/电信网络工程师,工作经历:电信级的交换机, bras数据配置,熟悉华为,中兴,爱立信,思科的路由器,交换机数据设备,无线网络的优化,3/4G无线网络优化...
    0人使用
  • 数据通信工程师简历模板,求职意向:数据通信工程师,工作经历:在中粮可口可乐的这段时间里,主要参与一些根据地方不同,市场环境不同的所需要制定的一些特殊对待快消品的方案,一遍适应当地执行环境,和日常的制定督促可口可乐业代日常项目的跟进,参与和快消品行业的竞品对比和应对方式,处理广告公司和中粮可口可乐的活动促销活动的广告制作,根据销量执行公司下发的政策方案,参与节假日和学校影院的方案申请、活动执行。
    555人使用
  • 数据通信工程师个人简历,基本信息,姓名:简历本,求职意向:数据通信工程师,工作经历:客户业务维护,工程实施跟进,维护机房设备运行,日常故障处理...
    0人使用
  • 1)进行测试需求分析,制定测试计划,合理分配测试资源; 2)设计开发测试用例,开发相关自动化测试框架及工具3)负责产品集成测试(功能,性能,稳定性),报告并追踪产品问题,提供系统测试及验收报告 4)与开发团队紧密合作,分析系统性能瓶颈,提供优化意见 5)优化软件质量保证流程,提高效率及实用性
    26665人阅读
  • [产线大数据自动化 专案]编写生产线程式实现工业自动化,以及大数据化,并为生产线的运行提供技术支持。通过对生产线上所有设备传送到Kafka的数据进行实时监听,并依据不同标准对所有数据进行处理,定时反馈给Kafka。同时对异常数据进行累计判断或者清零,对不同级别的异常抛送不同级别的警报到web service,以便送到相应的客户端,发出提示以及警报。后续分别将处理过的数据通过Nifi 传入MQTT和
    7797人阅读
  • 在分支任职大数据工程师,负责大数据产品项目组与咪咕音乐有限公司业务支撑中心部门项目开发及运维工作,主要负责工作内容:1、负责业务支撑中心的一级VGOP、咪咕杭州研发中心对外供数的所有数据维护以及新增接口的开发、增、删、修、调整字段类型等。2、负责中央音乐平台对外全国分省供数业务,涉及到的业务有咪咕彩铃、铃音盒、客户端使用及发展、振铃、全曲及各大话单的数据业务开发及运维、新增加接口数据各省份需求。3
    5240人阅读
  • 软件开发:责任描述:1、参与项目的需求分析和项目构建。2、参与商品展示模块及搜索系统模块的开发及测试3、搜索系统服务接口的开发,及solrCloud的安装及配置4、使用Redis数据库做缓存
    6740人阅读
  • [大数据技能]:熟悉javascript,Node.js,Angular.js等。实作过loopback,Kafka,NPM,ElasticSearch,MQTT,Nifi等。实作部署使用Xampp,FileZilla,Putty等。开发环境:VSCode,Loopback。[数据交互技能]:Java交互数据库#ES,掌握PL/SQL,AngularJS。大数据交互Kafka + ElasticS
    11629人阅读