zoukankan      html  css  js  c++  java
  • 拓端tecdat:Python用户流失数据挖掘:建立逻辑回归、XGboost、随机森林、决策树、支持向量机、朴素贝叶斯模型和Kmeans用户画像

    原文链接:http://tecdat.cn/?p=24346 

    原文出处:拓端数据部落公众号

    1.1 项目背景:

    在今天产品高度同质化的品牌营销阶段,企业与企业之间的竞争集中地体现在对客户的争夺上。“用户就是上帝”促使众多的企业不惜代价去争夺尽可能多的客户。但是企业在不惜代价发展新用户的过程中,往往会忽视或无暇顾及已有客户的流失情况,结果就导致出现这样一种窘况:一边是新客户在源源不断地增加,而另一方面是辛辛苦苦找来的客户却在悄然无声地流失。因此对老用户的流失进行数据分析从而挖掘出重要信息帮助企业决策者采取措施来减少用户流失的事情至关重要,迫在眉睫。

    1.2 目的:


    深入了解用户画像及行为偏好,挖掘出影响用户流失的关键因素,并通过算法预测客户访问的转化结果,从而更好地完善产品设计、提升用户体验。

    1.3 数据说明:

    此次数据是携程用户一周的访问数据,为保护客户隐私,已经将数据经过了脱敏,和实际商品的订单量、浏览量、转化率等有一些差距,不影响问题的可解性。

    2 读取数据
     

    1.  
      # 显示全部特征
    2.  
      df.head()

     3 切分数据

    1.  
       
    2.  
      # 划分训练集,测试集
    3.  
      X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=666)

    3.1 理解数据

    可以看到变量比较的多,先进行分类,除去目标变量label,此数据集的字段可以分成三个类别:订单相关指标、客户行为相关指标、酒店相关指标。

    4 特征工程
     

    1.  
      # 用训练集进行数据探索
    2.  
      train = pd.concat([X_train,y_train],axis=1)

    4.1 数据预处理


    4.1.1 删除不必要的列

    1.  
      X_train.pop("sampleid")
    2.  
      X_test.pop("sampleid")
    3.  
      train.pop("sampleid")

    4.1.2 数据类型转换

    字符串类型的特征需要处理成数值型才能建模,将arrival和d相减得到"提前预定的天数",作为新的特征
     

    1.  
      # 增加列
    2.  
      # 将两个日期变量由字符串转换为日期格式类型
    3.  
      train["arrial"] = pd.to_datimetain["arrval"])
    4.  
      X_tst["arival"] = d.to_daetime(X_est["arival"])
    5.  
      # 生成提前预定时间列(衍生变量)
    6.  
      X_trin["day_adanced"] = (X_rain["arival"]-Xtrain["d"]).dt.days
    7.  
       
    8.  
      ## 删除列
    9.  
      X_tran.dro(columns="d","arrivl"],inpace=True)

    4.1.3 缺失值的变量生成一个指示哑变量

     

    1.  
      zsl = tain.isnll().sum()[tain.isnll(.sum()!=0].inex
    2.  
       

    4.1.4 根据业务经验填补空缺值 

    ordernum_oneyear 用户年订单数为0 ,lasthtlordergap 11%用600000填充 88%用600000填充 一年内距离上次下单时长,ordercanncelednum 用0填充 用户一年内取消订单数,ordercanceledprecent 用0t填充 用户一年内取消订
    单率 242114 242114 -为空 有2种情况 1:新用户未下订单的空-88.42% 214097 2.老用户1年以上未消费的空 增加编码列未下订单新用户和 1年未下订单的老用户
    price_sensitive -0 ,中位数填充 价格敏感指数,consuming_capacity -0 中位数填充 消费能力指数 226108 -为空情况 1.从未下过单的新用户214097 2.12011个人为空原因暂不明确
    uv_pre -24小时历史浏览次数最多酒店历史uv. cr_pre -0,中位数填充 -24小时历史浏览次数最多酒店历史cr -0,中位数填充 29397 -为空 1.用户当天未登录APP 28633 2.刚上线的新酒店178 586 无uv,cr记录 编码添加 该APP刚上线的新酒店 764 29397
    customereval_pre2 用0填充-24小时历史浏览酒店客户评分均值, landhalfhours -24小时内登陆时长 -用0填充28633 -为空:用户当天未登录APP 28633
    hotelcr ,hoteluv -中位数填充 797
    #刚上新酒店 60 #未登录APP 118
    avgprice 0 填充一部分价格填充为0 近一年未下过订单的人数,cr 用0填充,

    1.  
      tkq = ["hstoryvsit_7ordernm","historyviit_visit_detaipagenum","frstorder_b","historyvi
    2.  
      # tbkq = ["hitoryvsit_7dernum","hisryvisit_isit_detailagenum"]
    3.  
       
    4.  
      X_train[i].fillna(0,inplace=True)
    5.  
       
    1.  
      ## 一部分用0填充,一部分用中位數填充
    2.  
      # 新用戶影響的相關屬性:ic_sniti,cosuing_cacity
    3.  
      n_l = picesensitive","onsmng_cpacty"]
    4.  
      fori in n_l
    5.  
      X_trini][Xra[X_trinnew_ser==1].idex]=0
    6.  
      X_est[i][X_test[X_test.nw_user==1].inex]=0
    7.  
       

    4.1.5 异常值处理

    将customer_value_profit、ctrip_profits中的负值按0处理
    将delta_price1、delta_price2、lowestprice中的负值按中位数处理
     

    1.  
      for f in flter_two:
    2.  
      a = X_trin[].median()
    3.  
      X_tran[f][X_train[f]<0]=a
    4.  
      X_test[f][X_est[]<0]=a
    5.  
      tran[f][train[f]<0]=a

    4.1.6 缺失值填充

    趋于正态分布的字段,使用均值填充:businessrate_pre2、cancelrate_pre、businessrate_pre;偏态分布的字段,使用中位数填充.
     

    1.  
      def na_ill(df):
    2.  
      for col in df.clumns:
    3.  
      mean = X_trai[col].mean()
    4.  
       
    5.  
      dfcol]=df[col].fillna(median)
    6.  
      return
    1.  
      ## 衍生变量年成交率
    2.  
      X_train["onear_dalate"]=_tain["odernum_onyear"]/X_tran"visinum_onyar"]
    3.  
      X_st["onyardealae"]=X_st["orernum_neyear"]/Xtest[visitumonyear"]
    4.  
      X_al =pd.nca([Xtin,Xtes)
    5.  
       
    1.  
      #决策树检验
    2.  
       
    3.  
      dt = Decsionr(random_state=666)
    4.  
       
    5.  
      pre= dt.prdict(X_test)
    6.  
      pre_rob = dt.preicproa(X_test)[:,1]
    7.  
      pre_ob

    4.2 数据标准化

     

    1.  
       
    2.  
      scaler = MinMacaer()
    3.  
       
    4.  
      #决策树检验
    5.  
      dt = DeonTreasifi(random_state=666)
    6.  
       
    7.  
       

    5 特征筛选
    5.1 特征选择-删除30%列

    1.  
      X_test = X_test.iloc[:,sp.get_spport()]
    2.  
      #决策树检验
    3.  
      dt = DecisonreeClssifie(random_state=666)
    4.  
      dt.fit(X_trin,y_tain)
    5.  
      dt.score(X_tst,y_est)
    6.  
      pre = dt.pdict(X_test)
    7.  
      pe_rob = dt.redicproba(X_test)[:,1]
    8.  
      pr_rob
    9.  
       
    10.  
      uc(pr,tpr)

     5.2 共线性/数据相关性
     

    1.  
      #共线性--严重共线性0.9以上,合并或删除
    2.  
      d = Xtrai.crr()
    3.  
      d[d<0.9]=0 #赋值显示高相关的变量
    4.  
      pl.fufsiz=15,15,dpi200)
    5.  
      ssheatp(d)

    6 建模与模型评估

    6.1 逻辑回归

     

    1.  
      y_prob = lr.preictproba(X_test)[:,1]
    2.  
      y_pred = lr.predict(X_test
    3.  
      fpr_lr,pr_lr,teshold_lr = metris.roc_curve(y_test,y_prob)
    4.  
      ac_lr = metrcs.aucfpr_lr,tpr_lr)
    5.  
      score_lr = metrics.accuracy_score(y_est,y_pred)
    6.  
      prnt("模准确率为:{0},AUC得分为{1}".fomat(score_lr,auc_lr))
    7.  
      prit("="*30

    6.2 朴素贝叶斯

     

    1.  
      gnb = GasinNB() # 实例化一个LR模型
    2.  
      gnb.fi(trai,ytran) # 训练模型
    3.  
      y_prob = gn.pic_proba(X_test)[:,1] # 预测1类的概率
    4.  
      y_pred = gnb.preict(X_est) # 模型对测试集的预测结果
    5.  
      fpr_gnb,tprgnbtreshold_gb = metrics.roc_crve(ytesty_pob) # 获取真阳率、伪阳率、阈值
    6.  
      aucgnb = meic.aucf_gnb,tr_gnb) # AUC得分
    7.  
      scoe_gnb = merics.acuray_score(y_tes,y_pred) # 模型准确率

    6.3 支持向量机

     

    1.  
      s =SVkernel='f',C=,max_ter=10,randomstate=66).fit(Xtrain,ytrain)
    2.  
      y_rob = sc.decsion_untio(X_st) # 决策边界距离
    3.  
      y_ed =vc.redit(X_test) # 模型对测试集的预测结果
    4.  
      fpr_sv,tpr_vc,theshld_sv = mtris.rc_urv(y_esty_pob) # 获取真阳率、伪阳率、阈值
    5.  
      au_vc = etics.ac(fpr_sc,tpr_sv) # 模型准确率
    6.  
      scre_sv = metrics.ccuracy_sore(_tst,ypre)

     6.4 决策树
     

    1.  
      dtc.fit(X_tran,_raiproba(X_test)[:,1] # 预测1类的概率
    2.  
      y_pred = dtc.predct(X_test # 模型对测试集的预测结果
    3.  
      fpr_dtc,pr_dtc,thresod_dtc= metrcs.roc_curvey_test,yprob) # 获取真阳率、伪阳率、阈值
    4.  
       
    5.  
       

    6.5 随机森林

     

    1.  
      c = RndoForetlassiir(rand_stat=666) # 建立随机森
    2.  
      rfc.it(X_tain,ytrain) # 训练随机森林模型
    3.  
      y_rob = rfc.redict_poa(X_test)[:,1] # 预测1类的概率
    4.  
      y_pedf.pedic(_test) # 模型对测试集的预测结果
    5.  
      fpr_rfc,tp_rfc,hreshol_rfc = metrcs.roc_curve(y_test,_prob) # 获取真阳率、伪阳率、阈值
    6.  
      au_fc = meris.auc(pr_rfctpr_fc) # AUC得分
    7.  
      scre_rf = metrcs.accurac_scor(y_tes,y_ped) # 模型准确率

    6.6 XGboost

     

    1.  
      # 读训练数据集和测试集
    2.  
      dtainxgbatrx(X_rai,yrain)
    3.  
      dtest=g.DMrx(Xtest
    4.  
      # 设置xgboost建模参数
    5.  
      paras{'booser':'gbtee','objective': 'binay:ogistic','evlmetric': 'auc'
    6.  
       
    7.  
      # 训练模型
    8.  
      watchlst = (dtain,'trai)
    9.  
      bs=xgb.ran(arams,dtain,n_boost_round=500eva=watchlst)
    10.  
      # 输入预测为正类的概率值
    11.  
      y_prob=bst.redict(dtet)
    12.  
      # 设置阈值为0.5,得到测试集的预测结果
    13.  
      y_pred = (y_prob >= 0.5)*1
    14.  
      # 获取真阳率、伪阳率、阈值
    15.  
      fpr_xg,tpr_xgb,heshold_xgb = metricsroc_curv(test,y_prob)
    16.  
      aucxgb= metics.uc(fpr_gb,tpr_xgb # AUC得分
    17.  
      score_gb = metricsaccurac_sore(y_test,y_pred) # 模型准确率
    18.  
      print('模型准确率为:{0},AUC得分为:{1}'.format(score_xgb,auc_xgb))

     6.7 模型比较
     

    1.  
       
    2.  
      plt.xlabel('伪阳率')
    3.  
      plt.ylabel('真阳率')
    4.  
      plt.title('ROC曲线')
    5.  
      plt.savefig('模型比较图.jpg',dpi=400, bbox_inches='tight')
    6.  
      plt.show()

    6.8 重要特征

    1.  
      ea = pd.Sries(dct(list((X_trclumsfc.eatre_imortancs_))))
    2.  
      ea.srt_vlues(acedig=False
    3.  
      fea_s = (fa.srt_vauesacnding=alse)).idex


     

    6.9 流失原因分析

    •  cityuvs和cityorders值较小时用户流失显著高于平均水平,说明携程平台小城市的酒店信息缺乏,用户转向使用小城市酒店信息较全的竞品导致用户流失
    • 访问时间点在7点-19点用户流失比例高与平均水平:工作日推送应该避开这些时间点
    • 酒店商务属性指数在0.3-0.9区间内用户流失大于平均水平,且呈现递增趋势,说明平台商务指数高的酒店和用户期望有差距(价格太高或其他原因?), 商务属性低的用户流失较少
    • 一年内距离上次下单时长越短流失越严重,受携程2015年5月-2016年1月爆出的负面新闻影响较大,企业应该更加加强自身管理,树立良好社会形象
    • 消费能力指数偏低(10-40)的用户流失较严重,这部分用户占比50%应该引起重视
    • 价格敏感指数(5-25)的人群流失高于平均水平,注重酒店品质
    • 用户转化率,用户年订单数,近1年用户历史订单数越高,24小时内否访问订单填写页的人群比例越大流失越严重,需要做好用户下单后的追踪体验, 邀请填写入住体验,整理意见作出改进
    • 提前预定天数越短流失越严重用户一年内取消订单数越高流失越严重

    6.10 建议:

    • 考虑占取三四线城市和低端酒店范围的市场份额
    • 用户易受企业负面新闻影响,建议企业勇于承担社会责任,加强自身管理,提高公关新闻处理时效性,树立品牌良好形像
    • 在节假日前2-3周开始热门景点酒店推送
    • 做好酒店下单后的追踪体验,邀请填写入住体验,并整理用户意见作出改进

    7 客户画像
    7.1 建模用户分类

    1.  
      # 用户画像特征
    2.  
      user_feature = ["decisiohabit_user,'starprefer','lastpvgap','sid',
    3.  
      'lernum",'historyvisit_visit_detaipagenum',
    4.  
      "onyear_dealrat
    5.  
      ]
    6.  
      # 流失影响特征
    7.  
      fea_lis = ["cityuvs",
    8.  
      "cityorders",
    9.  
      "h",
    10.  
      "businessrate_pre2"
    11.  
       
    12.  
      # 数据标准化 Kmeans方法对正态分布数据处理效果更好
    13.  
      scaler = StanardScalr()
    14.  
      lo_atribues = pdDatarame(scr.fittransfrm(all_cte),columns=all_ce.coluns)
    15.  
       
    16.  
      # 建模分类
    17.  
      Kmens=Means(n_cluste=2,rndom_state=0) #333
    18.  
      Keans.fi(lot_attributes # 训练模型
    19.  
      k_char=Kmenscluster_centers_ # 得到每个分类
    20.  
      plt.figure(figsize=(5,10))
    21.  
       

    7.2 用户类型占比
     

    1.  
      types=['高价值用户','潜力用户']
    2.  
      ax.pie[1], raius=0.,colors='w')
    3.  
      plt.savefig(用户画像.jpg'dpi=400, box_inchs='tigh')

     7.3 高价值用户分析 :

    占比19.02,访问频率和预定频率都较高,消费水平高,客户价值大,追求高品质,对酒店星级要求高,客户群体多集中在老客户中,
    建议:
    多推荐口碑好、性价比高的商务酒店连锁酒店房源吸引用户;
    在非工作日的11点、17点等日间流量小高峰时段进行消息推送。
    为客户提供更多差旅地酒店信息;
    增加客户流失成本:会员积分制,推出会员打折卡

    7.4 潜力用户分析

    占比:80.98% 访问频率和预定频率都较低,消费水平较低,对酒店星级要求不高,客户群体多集中在新客户中,客户价值待挖掘 建议:
    因为新用户居多,属于潜在客户,建议把握用户初期体验(如初期消费有优惠、打卡活动等),还可以定期推送实惠的酒店给此类用户,以培养用户消费惯性为主;
    推送的内容应多为大减价、大酬宾、跳楼价之类的;
    由于这部分用户占比较多,可结合该群体流失情况分析流失客户因素,进行该群体市场的开拓,进一步进行下沉分析,开拓新的时长。


    最受欢迎的见解

    1.从决策树模型看员工为什么离职

    2.R语言基于树的方法:决策树,随机森林

    3.python中使用scikit-learn和pandas决策树

    4.机器学习:在SAS中运行随机森林数据分析报告

    5.R语言用随机森林和文本挖掘提高航空公司客户满意度

    6.机器学习助推快时尚精准销售时间序列

    7.用机器学习识别不断变化的股市状况——隐马尔可夫模型的应用

    8.python机器学习:推荐系统实现(以矩阵分解来协同过滤)

    9.python中用pytorch机器学习分类预测银行客户流失

    ▍关注我们 【大数据部落】第三方数据服务提供商,提供全面的统计分析与数据挖掘咨询服务,为客户定制个性化的数据解决方案与行业报告等。 ▍咨询链接:http://y0.cn/teradat ▍联系邮箱:3025393450@qq.com
  • 相关阅读:
    Android_项目文件结构目录分析
    WPF_MVVM 开发的几种模式讨论
    Blend_技巧篇_淡入淡出
    Blend_技巧篇_导入PSD文件制作ToggleButton (Z)
    Blend_界面快速入门(Z)
    Blend_软件系列简介(Z)
    Blend_ControlTemplate(Z)
    803. 区间合并
    P4017 最大食物链计数
    P1113 杂务
  • 原文地址:https://www.cnblogs.com/tecdat/p/15690402.html
Copyright © 2011-2022 走看看