注:本文同步发布于微信公众号:stringwu的互联网杂谈 数据分析杂谈
笔者只是一个客户端工程师,不是专业的数据分析师,只是碰巧在工做中与数据打交道比较多,作过客户端的数据传输SDK,客户端无埋点SDK,写过hive脚本,也折腾过spark,也作过不一样通道数据的差别分析,仅此而已。本文试图从笔者自身有限的经历中,给你们普及些数据分析的入门知识。算法
分割线
——————————————————————————sql
什么是数据分析?数据分析说白了就是让数据变成生产力的一部分,是从海量的数据中窥视背后的业务逻辑,寻找出新的业务增加目标,或者及时发现业务潜在的问题。数据分析实际上是服务于业务需求的,脱离了业务需求的数据分析就是在“打黑工”。微信
本文会尝试从数据分析的流程,分析技能,名词,指标体系,分析方法,商业化模型几个方面简要介绍数据分析涉及到一些知识。框架
1 数据分析流程
数据分析流程是一个思惟框架,主要帮助和指导咱们如何去作数据分析。目前业务数据分析标准流程为CRISP-DM(Cross-industry standard process for data mining)
数据分析wiki;整个分析流程分为六个部分工具
- 业务理解(business understanding)
- 数据理解(data understanding)
- 数据准备(data preparation)
- 创建模型(modeling)
- 评估模型(evaluation)
- 部署(deployment)
1.1 业务理解
业务理解核心是理解业务的背景,并评估分析需求是否可落地为数据分析项目。好比若是想要分析push
的到达率,则须要理解消息在整个push
系统会通过哪几个路径,从在线push到第三方离线push,从客户端收到push消息,到push消息的处理,再到push消息的展示,这里的每个行为路径均可能会引发到达率的变化。理解了push系统的运行机制,才有可能对push
的到达率去进行分析落地。学习
1.2 数据理解
- 数据收集:抽取的数据必须可以正确反映业务需求,不然分析结论会对业务形成误解
- 数据清洗:原始数据中存在数据缺失和脏数据,若是不处理会致使模型失效,所以对数据经过过滤“去噪”,从而提取出有效数据;
仍是以push到达率的分析为例子,数据收集则是收集到达每一个路径时的push消息的数据,而且能用惟一标识对push在路径上的表现进行串联。
1.3 数据准备
- 数据探索:经过统计方法对数据进行处理分析,发现数据内部的规律;
- 数据转换:为达到模型的输入数据要求,须要对数据进行转换,包括生成衍生变量、一致化、标准化等;
如特征描述,分布特性优化
1.4 创建模型
- 选择方法、工具、创建模型:综合考虑业务需求精度,数据状况,成本等因素,选择最适合的模型,在实践中对于一个分析目的,每每须要运用多个模型,而后经过后续的模型评估,进行优化、调整,以寻求最合适的模型;
如:
- 分析与回归:svm算法,
- 聚类分析
- 关联分析
- 时序模型
- 结构优化
1.5 模型评估
- 建模过程评估:对模型的精度、准确性、效率和通用性进行评估;
- 模型结果评估:评估是否有遗漏的业务,模型结果是否回答了当初的业务问题,须要结合业务进行评估;
1.6 应用
- 分析结果应用:将模型应用于业务实践,才能解决业务问题,并实现数据分析的真正价值
- 分析模型改进:对模型应用效果的及时跟踪和反馈,以便后期的模型调整和优化;
全部的数据分析问题,不论是技术数据,仍是产品数据均可以按照这个流程去进行分析,该流程能够很清晰地指导每一步须要作什么,不会毫无头绪,不知道从哪里入手去进行分析;ui
2 经常使用名词
- ROI(return on investment):投资回报率
- LTV(life time value):用户生命周期价值(用户在使用应用时能贡献多少收入)
- ARPU(average revenue per user) :每一个用户的平均价值
- CTR(click through rate) :点击经过率(点击/曝光)
- CPM(cost per mille) : 广告千次曝光成本
- CPC(cost per click) :点击成本
- CPA(click per action) :一个动做的点击成本
3 数据指标体系
数据指标体系是指针对一种具体的业务场景,为了完成该场景的分析目标(分析问题和解决问题),搭建的技术体系,将业务的不肯定性的描述转化为肯定性的数据描述。
咱们在创建数据指标体系时,最好须要包含一个指标文档,文档里须要有如下内容:lua
- 指标:说明这是什么指标,如点击经过率;
- 指标口径:该指标是怎样统计出来的,数据来源是哪里;
- 代码计算:核心的sql语句
- 备注:某些事项的文档化,如指标口径更改等;
- 责任人:该指标是谁负责的,可包括具体的产品,研发,数据分析的同窗;
3.1 互联网常见的指标体系
3.1.1 基础指标
- 日活 :每日活跃的用户数(设备数),可区分UV 和PV
- 新增 : 每日新增的用户数(设备数);
- PV (page visit) :用户每浏览一次,则记录为一个PV,同一用户屡次浏览会记录多个PV
- UV (user visit) : 一个用户浏览算一次UV,同一用户屡次浏览只会记录一个UV;
- 时长和次数:如单次访问时长,人均访问时长,人均访问次数
- 留存率:第二天留存、7日留存、30日留存;
3.2.1 内容指标
- 请求数 : 天天该内容的请求数;
- 曝光数 :天天该内容的实际曝光数(用户可见)
- 点击数 :用户对该内容的互动点击数
- 评论 :用户对该内容的互动评论数
- 分享 :用户对该内容的互动分享数
- 点赞:用户对该内容的互动点赞数
3.2.2 渠道指标
- 有效新增 : 每一个渠道带来的实际用户数;(如经过该渠道进行首次注册,登陆等行为)
- 留存率(第二天留存,7日留存,30日留存):主要用来评价该渠道的质量
- 渠道单价 : 每带来一个用户的实际支付价格;
咱们能够根据这几个指标去衡量一个渠道的好坏,在投放时根据渠道的质量,对优质渠道增长投放,减小甚至不投放劣质的渠道。
4 数据分析技能
数据分析须要具有必定的理论知识和分析思惟spa
4.1 理论知识
- 几率相关:独立事件、相关事件、指望、贝叶斯等
- 几率分析:离散几率分布,连续几率分布;
- 统计推断:置信区间、假设检验、抽样
4.2 分析思惟
- 漏斗思惟 :
- 分类思惟 : 对用户进行划分,如根据年龄,地域,爱好等进行划分分析;
- 平衡思惟
- AB test : 实验行为;
5 分析框架与方法
5.1 数据分析方法
- 结构分析法:如按人群划分;
- 对比分析:同比,环比,须要有对应的柱状图;
- 时序序列分析:按照事件时间分析,对应折线图;
- 密度分布:服务什么分布,对应的分布图;
- 相关分析法:如留存率与文章质量,对应散点图 + 折线图
5.2 数据分析模型
5.2.1 RFM模型
RFM(Recency,Frequency,Money)模型通常是用于筛选出须要重点运营的用户:
- Recency:最近一次消费时间 ,通常以周或双周为单位
- Frequency : 消费频率,固定周期的消费次数,通常以月或者双月为单位;
- Money:消费的金额,通常以月或者双月为单位
通常能够经过对RFM数据进行标准化标准化,把RFM模型变为打分模型,经过能够有效圈选出可持续运营的高质量用户
5.2.2 AARRR模型
- Acquistion :获取(渠道分析,用户如何发现你的产品)
- Activation :激活(启动运营分析,用户第一次使用体验如何)
- Retention:提升留存:(留存分析,用户是否会重复使用产品)
- Revenve :收入(商业化分析,怎样赚钱)
- Reter : 自传播(裂变分析,用户是否愿意告诉其余用户)
做用:找到增加的切入点,拉新,提频,收入;
5.2.3 用户生命周期模型
- 导入期 :已完成注册,但尚未深刻体验产品功能或服务的用户(可经过登陆次数和访问时长等指标是衡量)
- 成长期:已经较深刻体验产品相关的服务或功能,并完成首次关键行为的用户(关键行为能够是一个下载,一个互动,视业务而定);
- 成熟期:已经发生屡次付费行为的用户(每一个用户价值的巅峰,能贡献最多的活跃时长和营收)
- 休眠期:曾经是成熟用户,但一段时间内未产生有价值的行为(有价值的行为也视业务而定,能够是下载,互动,付费等行为);
- 流失期:超过一段时间未登陆和访问的用户(视业务形态而定,须要明确流失定义和关键行为,如超过一个月未登陆等)
能够经过对用户行为数据的分析,对用户进行分类,进而视当前产品所处阶段,采用不一样的运营手段;
6 总结
本文只是笔者在工做时,做为业余的爱好进行的学习总结,相对比较基础,可视为小白了解数据分析的一个参考文章。若是须要深刻数据分析领域还须要专门的系统化学习。