大数据工程师简历自我评价怎么写

简历本 06月30日 简历范文      自我评价怎么写

自我评价(案例一)

拥有两年的大数据开发经验,对java,Hadoop,kafka,fulme,scala,spark,python等相关技术可以熟练应用,
对于数据非常敏感,在工作中出现的问题,有较强的解决能力;
善于沟通,可以非常好的处理与同事的人际关系,比较受同事们的欢迎;

自我评价(案例二)

1.积极的工作态度和强大的抗压性;
2.对大数据技术有钻研热情,具备高度的责任心及团结协作精神,善于沟通;
3.自我驱动,追求工作的成就感和价值;
4.能够主动快速学习新的工程技术,对于新鲜事物接收能力较强;
5.本人是计算机应用技术专业毕业,有丰富的编程知识体系做基础;
6.对于团队开发有一定基础,有过团队开发经验,善于分析和吸取经验;
7.较注重学习机会,希望能在贵公司提升自己的能力;

自我评价(案例三)

熟悉hadoop生态圈一些开源组件flume、sqoop、zookeeper等,熟悉Java,Linux,熟悉关
系型数据库mysql、oracle,熟悉数据仓库hive,会写SQL语句,熟悉yarn工作原理及
mapreduce原理,了解hbase,spark,spark_rdd
性格开朗,为人细心,做事一丝不苟,能吃苦耐劳,工作脚踏实地,有较强的责任心,
具有团队合作精神,又具有较强的独立工作能力,思维活跃。

自我评价(案例四)

1.结构化:因为物种比如人的适应度越来越差,需要合作和依赖别人,所以面对其他人要抱着合作和包容利用的心态;联想到现在的大数据生态圈甚至系统,好的技术框架需要其他框架支持。eg:Hadoop生态圈里面的技术是互相依赖的,hdfs、 yarn 、hbase  、kafka 等需要zookeeper
2.自由化:因为分子不稳定性会有比如布朗运动,所以跳槽现在正常并且自由化职业人会更多,以后要把自己做出 U盘模式,有能力的人可以自由工作,本身一个技术框架就是设计简单的。Hadoop生态系统里面的框架设计目标和实现上是简单的,kafka就是解决高吞吐量存储,zookeeper就是解决一致性
3.信息化:因为物种越进化越高级就会越需要从外界吸取能量以维持生计和存在,所以当下就越来越需要多方面而丰富的知识和专业的深度学习,更多的人为了可以在社会立足读研读博
总结:
1.谁都不是一个人一个技术就能解决所有问题或者成功,需要合作和搞好关系
2.把自己变得简单化既是专业化,设计要目标和实现上面的简单单一化
3.自己不断的学习(技术博文)和人文知识(新闻、趣事、跨学科)

有用
本文内容来自互联网,如果侵犯了您的权益,请联系管理员立即删除(附上内容地址)

相关推荐

  • 大数据工程师简历模板,基本信息,姓名:简历本,求职意向:软件工程师/软件研发工程师/数据库开发工程师,工作经历:进行数据导入导出 sqoop,mr数据清洗,hive,spark分析统计,以及hadoop集群维护,日常数据维护等...
    237人使用
  • 大数据开发工程师简历模板下载word格式,求职意向:大数据开发工程师,工作经历:根据公司发展需要,为公司所做的项目提供技术支持,搭建数据分析平台,对数据进行简单清洗和处理,对项目所需的部分指标进行分析处理,解决项目中出现的部分问题,优化项目代码,减少运行时间。
    3486人使用
  • 数据通信工程师简历,基本信息,姓名:简历本,求职意向:网络信息安全工程师/数据通信工程师/通信技术工程师/网络工程师/电信网络工程师,工作经历:电信级的交换机, bras数据配置,熟悉华为,中兴,爱立信,思科的路由器,交换机数据设备,无线网络的优化,3/4G无线网络优化...
    0人使用
  • 数据通信工程师简历模板,求职意向:数据通信工程师,工作经历:在中粮可口可乐的这段时间里,主要参与一些根据地方不同,市场环境不同的所需要制定的一些特殊对待快消品的方案,一遍适应当地执行环境,和日常的制定督促可口可乐业代日常项目的跟进,参与和快消品行业的竞品对比和应对方式,处理广告公司和中粮可口可乐的活动促销活动的广告制作,根据销量执行公司下发的政策方案,参与节假日和学校影院的方案申请、活动执行。
    555人使用
  • 数据通信工程师个人简历,基本信息,姓名:简历本,求职意向:数据通信工程师,工作经历:客户业务维护,工程实施跟进,维护机房设备运行,日常故障处理...
    0人使用
  • 1)进行测试需求分析,制定测试计划,合理分配测试资源; 2)设计开发测试用例,开发相关自动化测试框架及工具3)负责产品集成测试(功能,性能,稳定性),报告并追踪产品问题,提供系统测试及验收报告 4)与开发团队紧密合作,分析系统性能瓶颈,提供优化意见 5)优化软件质量保证流程,提高效率及实用性
    26665人阅读
  • [产线大数据自动化 专案]编写生产线程式实现工业自动化,以及大数据化,并为生产线的运行提供技术支持。通过对生产线上所有设备传送到Kafka的数据进行实时监听,并依据不同标准对所有数据进行处理,定时反馈给Kafka。同时对异常数据进行累计判断或者清零,对不同级别的异常抛送不同级别的警报到web service,以便送到相应的客户端,发出提示以及警报。后续分别将处理过的数据通过Nifi 传入MQTT和
    7797人阅读
  • 在分支任职大数据工程师,负责大数据产品项目组与咪咕音乐有限公司业务支撑中心部门项目开发及运维工作,主要负责工作内容:1、负责业务支撑中心的一级VGOP、咪咕杭州研发中心对外供数的所有数据维护以及新增接口的开发、增、删、修、调整字段类型等。2、负责中央音乐平台对外全国分省供数业务,涉及到的业务有咪咕彩铃、铃音盒、客户端使用及发展、振铃、全曲及各大话单的数据业务开发及运维、新增加接口数据各省份需求。3
    5240人阅读
  • 软件开发:责任描述:1、参与项目的需求分析和项目构建。2、参与商品展示模块及搜索系统模块的开发及测试3、搜索系统服务接口的开发,及solrCloud的安装及配置4、使用Redis数据库做缓存
    6740人阅读
  • [大数据技能]:熟悉javascript,Node.js,Angular.js等。实作过loopback,Kafka,NPM,ElasticSearch,MQTT,Nifi等。实作部署使用Xampp,FileZilla,Putty等。开发环境:VSCode,Loopback。[数据交互技能]:Java交互数据库#ES,掌握PL/SQL,AngularJS。大数据交互Kafka + ElasticS
    11629人阅读