(1)写SQL 脚本:俗称“跑数据”。leader要一组 季度数据/月数据/周数据 ,写一段或者N段SQL把数据跑出来。一般是临时性需求,不过当发现默默地演变成一个常规性需求时,最好直接封装SP(存储过程)了……每次跑一下方便省事。这项工作内容需要的技能点有:数据库,SQL
(2)数据分析项目前中期:这个是耗时很长很麻烦的部分。前期是基础数据的处理清洗,基础汇总聚合,然后设计监测指标,指标的设计不仅仅是数学分析,更多需要跑业务需求方那边了解,毕竟最终目的是要让别人用,提升效率,不是为了凸显模型高大上。所有需要的数据都有了之后,开始建立业务模型(数学模型),整个建模的过程也是反复探索数据的过程,在一定数据量的情况下,初期的建模应用起来一定会这种问题那种问题balabala烦死人……以后边应用边调整优化。技能点:数据库,SQL,excel,R语言,数理统计,数据挖掘,业务知识。
(3)***产品经理:业务模型完了后,就有了指标结果。把数据落地到数据库中。然后接下来需要找开发帮你做可视化站点。作为数据分析师我是最了解这个项目 逻辑流程、核心算法、业务应用的。找开发帮你做可视化站点:曲线图啊 柱状图啊 饼图啊 balabala 让别人一眼就能看到指标的整体状况。技能点:逻辑思维,流程规划,数据可视化,一定的开发知识(方便和开发沟通),表达能力力和表情。
(4)模型和指标正式应用起来自后:收集业务部的反馈,不停的跟他们沟通邮件,不停地优化模型,数据表。以及给业务部一些特定需求的分析评估报告(临时性需求)。技能点:逻辑思维,表达能力
(5)个人学习:有时候会遇到等待别人工作进度的情况,比如别人的上一批数据没出来,你完全没法工作。那就上网或者看书 学习知识。数理统计和数据挖掘博大精深,如何能应用得好,产生最高性价比更是一门学问啦。多了解些总是没坏处的。
(6)大数据部分:涉及到”大数据“已经不是我个人工作内容部分了,而是整组的工作内容。具体需要有专门比较懂hadoop和spark的人负责在上面跑数据,写最终实现代码。我们组里的分工大概就是:数据分析师,数据工程师,(半个产品经理),有人身兼三种,有人只爱专精。技能点:无特定加点法则,团队加点。
免责声明:本站文字信息和图片素材来源于互联网,仅用于学习参考,如内容侵权与违规,请联系我们进行删除,我们将在三个工作日内处理。联系邮箱:chuangshanghai#qq.com(把#换成@)