大数据工程师简历项目经验填写样本

简历本 03月13日 简历范文      项目经验怎么写

项目经验(案例一)

项目时间:2007-04 - 2009-02

项目名称:Intel XML Software Suite

项目描述:
项目介绍
Intel XML Software Suite是一个软件库, 基于它可以实现快速XSLT 处理、XPath 评估、XML 模式验证、文档对象模型(DOM)以及 Simple API for XML (SAX) 解析等功能。
我的职责
负责Intel XML Software Suite软件产品包的测试与开发工作, 主要集中在XSLT部分的测试与开发工作。具体的工作任务主要包括制定测试计划,开发测试驱动程序,添加测试用例,维护测试脚本和测试框架,分析测试报告及提交bug,修改bug,进行需求分析及相关功能开发等。

项目经验(案例二)

项目时间:2012-01 - 2012-06

项目名称:Intel Cloud SSO

项目描述:
项目介绍
Intel Cloud SSO是一个基于云端的身份和访问管理服务(cloud-based Identity and Access Management-as-a-Service), 发布在salesforce.com的企业平台Force.com上。其后端使用的是Intel Expressway Cloud Access 360的核心功能。SSO可以提供对于Box.com,Cisco* WebEx*, Google* Apps以及Salesforce的无密码访问, 在方便用户的同时也提供安全保障。

Intel Cloud SSO, a cloud-based Identity and Access Management-as-a-Service (IAMaaS) is now delivered on Force.com*, salesforce.com’s social enterprise platform.
Single sign-on (SSO) from Force.com provides seamless access to applications, such as Box.com Cisco* WebEx*, Google* Apps and Salesforce, improving end-user convenience and increasing security, while reducing the number of passwords required.
我的职责
负责后端核心功能的EndToEnd测试(测试框架的开发与维护)
参与前端Configuration/UI测试(测试用例的开发与维护)
协助售前人员向客户进行产品原型的功能展示

项目经验(案例三)

项目时间:2016-10 - 2017-04

项目名称:Intel和百度大数据团队合作项目-服务器性能评测

项目描述:
项目介绍
Intel和百度大数据团队合作项目-基于SQL on Hadoop大数据测试基准,结合百度业务用例,对几款经典服务器进行性能评测。
我的职责
与百度团队合作进行需求分析,制定测试计划,主要是确定SQL on Hadoop大数据测试基准(TPC-DS,SparkSQL引擎)和典型查询用例。
负责各服务器平台上SQL on Hadoop大数据服务环境的搭建(基于Apache Hadoop/Spark),主要集中在Intel至强和IBM Power8服务器。
负责各服务器平台上TPC-DS测试环境的搭建。
负责单线程场景下的性能调优,提高硬件资源利用率。
负责开发多线程场景下的测试脚本,模拟多用户并发测试。
负责分析各服务器平台性能测评结果,提交性能分析报告,找出潜在的硬件瓶颈和优化方向。

项目经验(案例四)

项目时间:2016-07 - 2016-10

项目名称:城市地铁客流综合管控系统(二期)

项目描述:
项目介绍
随着现代地铁的发展和客流量的不断增大,相关的地铁部门,
为了更好的监控地铁的运行状态,以及各个时段的客流量,
实现对海量数据的采集,挖掘和分析,提出了此项目需求。
我的职责
负责从Kafka导入数据分析各个时段的各个站点的客流量,
运用spark-streaming计算,并输出到数据库。

有用
本文内容来自互联网,如果侵犯了您的权益,请联系管理员立即删除(附上内容地址)

相关推荐

  • 大数据工程师简历模板,基本信息,姓名:简历本,求职意向:软件工程师/软件研发工程师/数据库开发工程师,工作经历:进行数据导入导出 sqoop,mr数据清洗,hive,spark分析统计,以及hadoop集群维护,日常数据维护等...
    237人使用
  • 大数据开发工程师简历模板下载word格式,求职意向:大数据开发工程师,工作经历:根据公司发展需要,为公司所做的项目提供技术支持,搭建数据分析平台,对数据进行简单清洗和处理,对项目所需的部分指标进行分析处理,解决项目中出现的部分问题,优化项目代码,减少运行时间。
    3486人使用
  • 数据通信工程师简历,基本信息,姓名:简历本,求职意向:网络信息安全工程师/数据通信工程师/通信技术工程师/网络工程师/电信网络工程师,工作经历:电信级的交换机, bras数据配置,熟悉华为,中兴,爱立信,思科的路由器,交换机数据设备,无线网络的优化,3/4G无线网络优化...
    0人使用
  • 数据通信工程师简历模板,求职意向:数据通信工程师,工作经历:在中粮可口可乐的这段时间里,主要参与一些根据地方不同,市场环境不同的所需要制定的一些特殊对待快消品的方案,一遍适应当地执行环境,和日常的制定督促可口可乐业代日常项目的跟进,参与和快消品行业的竞品对比和应对方式,处理广告公司和中粮可口可乐的活动促销活动的广告制作,根据销量执行公司下发的政策方案,参与节假日和学校影院的方案申请、活动执行。
    555人使用
  • 数据通信工程师个人简历,基本信息,姓名:简历本,求职意向:数据通信工程师,工作经历:客户业务维护,工程实施跟进,维护机房设备运行,日常故障处理...
    0人使用
  • 1)进行测试需求分析,制定测试计划,合理分配测试资源; 2)设计开发测试用例,开发相关自动化测试框架及工具3)负责产品集成测试(功能,性能,稳定性),报告并追踪产品问题,提供系统测试及验收报告 4)与开发团队紧密合作,分析系统性能瓶颈,提供优化意见 5)优化软件质量保证流程,提高效率及实用性
    26665人阅读
  • [产线大数据自动化 专案]编写生产线程式实现工业自动化,以及大数据化,并为生产线的运行提供技术支持。通过对生产线上所有设备传送到Kafka的数据进行实时监听,并依据不同标准对所有数据进行处理,定时反馈给Kafka。同时对异常数据进行累计判断或者清零,对不同级别的异常抛送不同级别的警报到web service,以便送到相应的客户端,发出提示以及警报。后续分别将处理过的数据通过Nifi 传入MQTT和
    7797人阅读
  • 在分支任职大数据工程师,负责大数据产品项目组与咪咕音乐有限公司业务支撑中心部门项目开发及运维工作,主要负责工作内容:1、负责业务支撑中心的一级VGOP、咪咕杭州研发中心对外供数的所有数据维护以及新增接口的开发、增、删、修、调整字段类型等。2、负责中央音乐平台对外全国分省供数业务,涉及到的业务有咪咕彩铃、铃音盒、客户端使用及发展、振铃、全曲及各大话单的数据业务开发及运维、新增加接口数据各省份需求。3
    5240人阅读
  • 软件开发:责任描述:1、参与项目的需求分析和项目构建。2、参与商品展示模块及搜索系统模块的开发及测试3、搜索系统服务接口的开发,及solrCloud的安装及配置4、使用Redis数据库做缓存
    6740人阅读
  • [大数据技能]:熟悉javascript,Node.js,Angular.js等。实作过loopback,Kafka,NPM,ElasticSearch,MQTT,Nifi等。实作部署使用Xampp,FileZilla,Putty等。开发环境:VSCode,Loopback。[数据交互技能]:Java交互数据库#ES,掌握PL/SQL,AngularJS。大数据交互Kafka + ElasticS
    11629人阅读