数据运营简历专业技能怎么写

简历本 06月10日 简历范文      专业技能怎么写

专业技能(案例一)

R
excel
python
spss
sql

专业技能(案例二)

office软件,python,ipython,oracle,mysql,linux,shell,R语言基础,数据运营

专业技能(案例三)

MATLAB
SPSS
Eviews
Excel
PPT
Word

专业技能(案例四)

熟悉C、SQL语言,了解Python基本语法,会用R进行简单的数据分析;掌握SPSS、EXCEL、E-Prime、SQL Sever、Visual Studio、Dreamweaver等软件;获得国家计算机二级C语言以及网络管理员等证书

有用
本文内容来自互联网,如果侵犯了您的权益,请联系管理员立即删除(附上内容地址)

相关推荐

  • 数据运营简历,基本信息,姓名:简历本,求职意向:数据运营,工作经历:合肥维音信息技术有限公司,是一家近1500人的电销公司,16年10月份入职,主要负责公司两个项目的数据分析工作,。项目一:账单分期项目,600人团队,我主要负责团队每天8个节点的数据统计及分析工作,并将分析结果及时反馈到上级领导处。同时还负责该项目的周报月报,员工绩效考核,积分卡测算,考勤等工作,每月,抽出四分之一时间用于打电销,用于了解一线工作人员实际情况...
    2人使用
  • 数据运营简历模板,求职意向:数据运营,工作经历:同各个银行洽谈业务,并争取到多次合作机会,对银行给的大量客户数据进行整理分析,分发至属下员工进行客户跟踪调查。及时的确保了银行和客户之间的关系。对每期客户的数据跟踪情况进行数据可视化处理。
    429人使用
  • 数据分析师/数据运营/产品运营简历模板,基本信息,姓名:简历本,求职意向:数据分析师/数据运营/产品运营,工作经历:(1)常规报表制作:制作日报、周报以及其他固定报表。(2)业务问题分析:通过数据分析解决业务问题。...
    10人使用
  • 数据运营个人简历,基本信息,姓名:简历本,求职意向:数据运营,工作经历:1、支持主要合作伙伴个性需求,完成计费风控功能,优化管控措施配置2、对管理层和运营部门提供多维度数据支持,按时提供日、周、月、季、半年度、年度数据报表及报告,及其他临时性数据需求支持;3、负责业务核心指标的监控和跟踪分析,并对异常波动情况进行深入分析和问题定位4、负责平台二线技术客服支撑,包括客户技术问题,处理和故障协查5、负责平台各计费业务各月省份计算对账...
    4人使用
  • 销售数据分析/数据运营简历模板,基本信息,姓名:简历本,求职意向:销售数据分析/数据运营,工作经历:1、负责日常销售数据的收集、统计和分析,制作数据报表上报总部;2、负责ERP系统里的库存管理,保证数据的正确性,根据需要提供数据支持;3、负责所有档案文件的排版编辑;4、负责办事处的财务和行政工作。...
    8人使用
  • 工作职责:1、物联网销售渠道规划,制定渠道发展策略;2、负责渠道运营管理、渠道协同;3、负责物联网代理渠道酬金管理;4、负责物联网商机系统、商机数据的管理和分析;4、牵头渠道管理系统建设需求,日常功能优化需求。工作业绩:1、完成物联网分公司定位调整后渠道规划及销售人员的调整工作;2、组织召开销售人员例行会议,定期通报商机及重点项目支撑情况;3、制定物联网代理商管理办法,并进行渠道酬金分配; 4、为
    1417人阅读
  • 简历本整理的数据运营岗位项目经验范文,项目描述:项目介绍
    站内3.7W参与 9W+的浏览 H5抽奖44W的参与人次
    vivox9s plus 新机发布,vivo的全网预热,需要按照vivo的一系列要求和时间节点完成活动,别且挖掘出参与用户有价值的信息
    我的职责
    活动策划及渠道的监控,和vivo相关负责人沟通达到对方所需要的要求,协调技术安要求完成H5页面,并最终向vivo汇报活动结果
    策划活动形式和用
    5335人阅读
  • 简历本整理的数据运营岗位自我评价范文,自我评价:热爱编程,熟练掌握R、Excel,了解Hadoop,数据挖掘相关技术。了解并正在学习Python、SPSS等数据分析工具,熟悉基本的数据分析可视化流程,具有较强的逻辑分析能力和学习能力,团队合作能力。希望在2年以内成为独立的数据分析工程师。
    2619人阅读
  • word、PPT、word、AccessspssERP、LMIS(WMS)、TPL、TMS
    1458人阅读
  • 1、利用离线式大数据分析平台,统计联通手机用户的身份属性以及行为偏好(包括用户的基本信息、终端偏好、通信行为、互联网偏好,信令位置等),形成用户画像,为公司产品运营提供数据支撑。2、技术方面主要用到的HDFS分布式文件系统,mapreduce计算框架,hive数据仓库,MySQL、Oracle数据库。开发环境为Linux,熟悉shell脚本编程、Hql以及PL/SQL存储过程开发3、日常工作主要是
    2225人阅读