大数据开发工程师个人简历模板word电子版手机可编辑修改

大数据开发工程师个人简历模板word电子版手机可编辑修改
大数据开发工程师个人简历模板word电子版手机可编辑修改

简小历

求职意向:

大数据开发工程师 1994.03,26岁 现居:广东广州 请输入手机号码 请输入邮箱地址

1. 4年大数据开发经验,良好的数据敏感度,熟悉大数据平台的实时计算架构、实时搜索结构、离线分析结构。

2. 熟练地开发编程能力、缜密的逻辑思维能力,良好的开发习惯,对工作尽职尽责,乐于从事有挑战性的工作。

3. 丰富的团队协作经验,乐于与用户以及同事和领导沟通,以便快速解决项目遇到的问题,抗压能力强。

2018.03 - 2020.11 广州某某网络技术发展有限公司 大数据工程师

在该公司主要负责别克,斯柯达,大众进口, 凯迪拉克,大通等项目数据中台,数据仓库构建,采集用户行为日志,并做出数据分析,完成临时性数据查询的需求等其它工作。具体工作如下:

1. Hadoop 平台搭建,使用Hive,Zepplin ,MR 等大数据技术的脚本编写,统计涵盖留资,商品,订单,行为

轨迹等多维度数据来源。

2. 基于Python 的实时统计报表,涵盖PC,WAP ,小程序秒级的统计;基于经销商的数字集客可视化报表的开发。

3. 参与线上"无埋点技术"开发,及表结构设计和维度拆分,以及从数据采集,转换,清洗数据到数据仓库,以及数

据处理功能的开发。

4. 对数据资源进行抽取、清洗、转换、分析等处理工作,整合数据资源,为产品,运营提供数据支持。

5. 支持多来源渠道监测,完成网站引流流量数据的监控和统计;汽车之家,爱卡,太平洋,懂车帝等多渠道来源

监测,完成线索数据的监控和统计。

6. 统计别克,斯柯达,大众进口车,凯迪拉克等项目的报表数据,通过数据对网站进行分析,优化;根据网站做

用户标签,用户行为轨迹更加直观的展示。

2016.07 - 2018.02 广州某某科技股份有限公司 大数据开发工程师

1. 参与公司大数据平台需求的开发--优化程序,提高了数据预处理的效率。

2. 为公司搭建自动部署平台--通过自动打包部署,提高了项目部署的效率。

3. 参与东莞移动大数据平台项目(互联网质量提升与数据分析项目)设计和开发--成功的帮助该公司定位用户问

题、提供专项分析,为该公司的决策提供了依据,并且成功的推广到其他地市。

4. 参与公司DMP 数据管理平台(房地产项目、汽车项目)--成功的运用某房地产商。

5. 参与省电信大数据中心异网终端识别、以及APP 应用的深度分析。

6. 参与临时性需求的开发,包括为公司竞标北京电信的精准营销项目提供支持,支撑公司的智能推送等等。

工作经历 自我评价

项目经验

2016.07 - 2018.02 别克后台报表

项目简介:该项目主要针对用户在别克商城的访问情况。旨在第一时间对商城的功能进调整,从而增加商城的流量和提高商城购买力。除此之外该项目还包括流量数据的同比和环比数据,购买转化漏斗,订单状态总览,商品类目,商品排行,支付金额排行。主要用户为公司内部的PM和运营人员,经销商,用户根据自己的需求去分析某一类用户的流量数据,根据分析结果,PM可以优化产品设计,运营人员可以为自己的运营工作提供数据支持。项目职责:

在项目中本人参与了表结构的设计,并参与开发与测试等环节中。

1.项目是基于python实时统计模块,涵盖了PC端,WAP端,小程序的秒级统计。

2.完成多维度配置为基础的动态实时数据统计。

3.数据收集阶段:用Kafka实时接收数据。

4.数据处理阶段:python对数据进行预处理,从而将结果存入指定数据库中。

5.数据展示阶段:通过链接预处理好的数据,进行echarts图表展示。

6.点击实时流量统计,用户流量分析,页面跳出率,平均停留时长,跳出率分析模块,热销商品统计分析模块,

活动分析模块,实时热力图统计分析模块。

2016.07 - 2018.02 数据仓库构建

项目简介:该项目主要收集用户在商城生成的行为日志。通过springBoot,Kafka,cassandra,Vue,uniapp,小程序,mysql,oracle,hive等实现埋点,记录用户行为日志。从汽车之家,爱卡,懂车帝,太平洋,易车等第三方平台对接来的线索以及爬虫爬取来的数据,都通过ETL对数据进行清洗,转化,处理,一并放入数据仓库中。项目职责:

1.参与表结构设计,埋点等开发环境等开发环境的搭建。

2.编写,测试,对收集的用户行为日志进行数据清洗与过滤。

3.通过Kettle对数据周期性或增量方式将数据清洗,转化,将处理好的数据放入数据仓库中。

4.对数据进行采集,处理,转化,分析,业务需求等方面。

5.将数据需求转化为埋点方案,协助研发采集数据,确保数据上报准确和完整。

教育背景

2012.09 - 2016.06 北京航空航天大学计算机科学与技术/ 本科专业技能

1.熟练掌握MapReduce、HDFS的原理,熟悉使用分布式计算模型。

2.熟练使用Hadoop生态圈的Hive、Hbase、Zookeeper、Sqoop、Kafka、Flume。

3.使用过Scala、Spark、Jstorm。熟悉Java语言,掌握反射、多线程等高级特性的使用。

4.熟练Linux操作和Shell脚本的应用。熟练使用MySQL、Oracle、MongoDB、Redis。

5.熟悉Servlet、JSP、JDBC,熟练使用SSH框架并可整合开发。

相关主题
相关文档
最新文档