大数据开发工程师自我评价简历范文

简历本 02月22日 简历范文      自我评价怎么写

自我评价(案例一)

1.参与过多个项目的开发,熟悉常见业务的处理。
2. 学习能力强,对新技术有着强烈的好奇心,适应能力强,能很快融入到项目开发中去。
3. 逻辑思维能力强,思路清晰,处理问题细心严谨。
4. 有较强的团队意识,乐于与用户以及领导,同事沟通,以便于解决项目中遇到的问题。
5. 喜欢大数据行业,并打算长期追随大数据行业的发展做下去。

自我评价(案例二)

专业技能:
1. 理解机器学习算法(逻辑回归、决策树、随机森林、朴素贝叶斯、Kmeans、协同过滤),并实现推荐系统;
2.熟悉Spark的工作原理,了解相关Spark源码及调优,实现实时/离线分布式计算系统;
3.掌握Kafka的工作原理,熟悉Kafka和Spark Streaming的整合机制;
4.掌握Hadoop的体系架构及运行原理,熟悉MapReduce的工作流程;
5.能够使用Hive进行海量的数据分析,并对其进行优化;
6.熟悉Zookeeper的集群架构、工作原理。
7.熟悉Redis、Mysql等存储技术;
8.熟悉Java,scala语言,了解Python。
个人评价:
1.逻辑思维能力强,思路清楚,学习能力强,对新技术有着强烈的好奇心
2、责任心、执行力及抗压性强,能够积极的面对并解决工作中的问题
3、具备独立分析和解决问题的能力,有良好的职业道德和踏实的工作态度
4、进取心强,有良好的需求理解能力,较强的协作精神和团队意识

自我评价(案例三)


1、勇于挑战自己的极限,能吃苦,能够承受一定的工作压力;
2、逻辑思维能力强,思路清楚,自学能力强,对新技术有着强烈的好奇心和求知欲;
3、为人真诚,性格开朗,有良好的交流沟通能力,善于团队合作;

自我评价(案例四)

1:熟练hadoop及CDH分布式数据数据集群,掌握hadoop集群的搭建和配置
2:熟悉hadoop相关框架,有Hive、HBase,sqoop、Mahout、zookeeper,Yarn,Mapreduce,impala,Spark等开发经验
3:熟悉flume,kafka,Strom实时流处理框架
4:熟练掌握Java及J2EE技术,熟悉常用的设计模式及开源框架Struts2、Hibernate和Spring,mybatis;
5:熟悉Jsp/Servlet、JDBC、ajax,jquery,EasyUI等
6:熟悉linux、unix操作系统以及Shell,scala语言脚本
7:熟悉C++,C语言,掌握Microsoft Visual C++
8:熟悉MFC,STL,COM,可快速开发组件,DLL,LIB库,WIN32应用程序
9:熟悉Mysql,sql server , oracle, sysbase等关系型数据库

有用
本文内容来自互联网,如果侵犯了您的权益,请联系管理员立即删除(附上内容地址)

相关推荐

  • 大数据开发工程师简历模板下载word格式,求职意向:大数据开发工程师,工作经历:根据公司发展需要,为公司所做的项目提供技术支持,搭建数据分析平台,对数据进行简单清洗和处理,对项目所需的部分指标进行分析处理,解决项目中出现的部分问题,优化项目代码,减少运行时间。
    3486人使用
  • 大数据工程师简历模板,基本信息,姓名:简历本,求职意向:软件工程师/软件研发工程师/数据库开发工程师,工作经历:进行数据导入导出 sqoop,mr数据清洗,hive,spark分析统计,以及hadoop集群维护,日常数据维护等...
    237人使用
  • 数据通信工程师简历,基本信息,姓名:简历本,求职意向:网络信息安全工程师/数据通信工程师/通信技术工程师/网络工程师/电信网络工程师,工作经历:电信级的交换机, bras数据配置,熟悉华为,中兴,爱立信,思科的路由器,交换机数据设备,无线网络的优化,3/4G无线网络优化...
    0人使用
  • 数据通信工程师简历模板,求职意向:数据通信工程师,工作经历:在中粮可口可乐的这段时间里,主要参与一些根据地方不同,市场环境不同的所需要制定的一些特殊对待快消品的方案,一遍适应当地执行环境,和日常的制定督促可口可乐业代日常项目的跟进,参与和快消品行业的竞品对比和应对方式,处理广告公司和中粮可口可乐的活动促销活动的广告制作,根据销量执行公司下发的政策方案,参与节假日和学校影院的方案申请、活动执行。
    555人使用
  • 数据通信工程师个人简历,基本信息,姓名:简历本,求职意向:数据通信工程师,工作经历:客户业务维护,工程实施跟进,维护机房设备运行,日常故障处理...
    0人使用
  • 软件开发:责任描述:1、参与项目的需求分析和项目构建。2、参与商品展示模块及搜索系统模块的开发及测试3、搜索系统服务接口的开发,及solrCloud的安装及配置4、使用Redis数据库做缓存
    6740人阅读
  • 根据有关标的客户的信息数据,适用相应的模型对其进行风险识别并分级。同时根据技术的发展及相关监管部门政策的调整而研发相适应的风险识别模型,同时就新的模型与技术部沟通、推进、实现,与运营部沟通、协调并推向市场,与设计部协调、调整、重新设计网页、APP界面。
    1529人阅读
  • 1.参与过多个项目的开发,熟悉常见业务的处理。2. 学习能力强,对新技术有着强烈的好奇心,适应能力强,能很快融入到项目开发中去。3. 逻辑思维能力强,思路清晰,处理问题细心严谨。4. 有较强的团队意识,乐于与用户以及领导,同事沟通,以便于解决项目中遇到的问题。5. 喜欢大数据行业,并打算长期追随大数据行业的发展做下去。
    6039人阅读
  • 项目介绍我们的日志数据来源有2个,一个是IIS日志,一个是trace日志。IIS日志主要用于记录用户和搜索引擎对网站的访问行为。trace日志主要记录用户在网站上的操作行为。用户在网页上的每次点击操作都会生成一条日志记录。我的工作是利用spark对trace日志进行离线和实时分析。需求一:商品搜索分析这主要是分析用户用户搜索了哪些产品。对日志进行处理后取得相应字段后,按照vid访客ID和siteI
    4267人阅读
  • 负责产品的研发,系统性能调优,必要的技术支持1.中联税审项目 c++,Excel2.大信合并系统 VC++,Excel,Mongdb3.数据处理平台 myeclipse,Jdk,Hadoop2.x,hive,sqoop,zookeeper4.业务报表系统 myeclipse ,jdk, tomcat,jsp,servlet........
    5708人阅读