2018年已经过去十二分之一啦,大家惊不惊喜,意不意外?
春节假期临近,趁着小周末,想和大家谈一下2018年公众号内容的更新方向。不论大家因何而来,看到既是有缘。最初写文,一是自己的输出总结,二是希望能借此帮助到更多人。
好在,都没有违背初心。
个人不多谈。后台每每留言,大家在职场上的点滴进步,技能的提高,崭新机会的获得,都让我觉得没有白费。
所以2018年应该、也必须有更好的内容给大家。希望你们每天都能变得更好。
下面是初定的几个内容方向。
运营
过去一年的运营向文章都集中在用户运营,围绕AARRR框架展开,这是很基础的内容。
我们可以把知识点再升级一下,框架是纯粹的底层指标,实际的用户运营还包含用户行为分析、用户AISAS模式、用户群体分析等上层应用,除此还囊括会员体系、积分体系等。
而这,只是用户运营。
更遑论内容、活动、电商等分支了,这些也有不少心得和干货可以分享给大家。除此之外,运营还会有两个特别专题。
其一是,我过去没有蹭过多少热点,但是在未来,我希望对刷屏级的现象多做一些个人的思考分析和总(tu)结(cao),这是运营岗位需要保持竞争的性质决定的,谁会希望自己落后呢?如果刷屏级现象能够用爬虫采集,那么也会加上它。
其二是,拆书。书籍不是市面上常见的运营入门手册,而是各大领域的畅销作,如市场营销、行为经济学、文案训练等。这些书籍对应运营们的基础能力,我们通过拆书的方式联系理论和实战。读书是比阅读公众号更好的一种学习方式。
运营越往后学,大家一定会提炼出更多的方法论和通用框架。我自己在学习的过程中,常常会有一种融会贯通感:噢,这个观点我不是在XX方法上见过了么?这种层面上的殊途同归,则构成了全栈能力的基础。
它也会帮助大家在职场走得更远。
数据化运营
数据运营虽然是运营职位之一,实际上它更多指一种策略和体系。我们可以把用户运营、活动运营等直接面向用户的职位想象成是运营的前台岗位,那么数据化运营则是业务的强有力后台支撑。
从最底层的数据埋点收集,到主题分析,这是一套完整的结构。去年写过一篇从零建立数据化运营体系的文章,现在看,它依旧能很好地诠释。
运营和数据是不可分割的,该系列将更侧重于写数据在运营能发挥出的主观性,譬如用户路径图、用户流失分析、社群KOL挖掘、主题聚类…在我观察中,很多运营对数据的理解和应用依旧停留在十年前,那么它的另外一个作用是帮助大家解惑,更好的理解什么是营销预测,什么是文本情感分析,什么是个性化推荐。
比如营销预测,用于判断用户是否会购买某商品,就需要去理解准确率、召回率和lift提升图。这样在后续的推送、活动费用的安排、人群筛选上才能游刃有余。惟有执行人员更好的落地,才称得上精准营销。
上述内容,是很多运营不曾接触的领域,我最期待的是,大家看完文章后恍然大悟:原来还能这样玩。
数据产品和应用
数据产品是我很感兴趣的领域,我本身不是算法专精,在机器学习能达到的天花板心里有数。但是凭借对业务的了解,以及数据和技术边界的掌握,作为两者的桥接点,这或许能让我更好发挥。
数据产品市面上并没有严格的定义,它既可能是做着数据运营下指标体系的活,也可能是BI和Dashboard的设计规划,再者是机器学习相关的系统。
虽然很想尝试写出市面上第一个数据产品系列的文章,不过我最多是初窥门径,所以还是先希望它成为攻玉的他山之石,也欢迎正统的数据PM们多向我指教。
数据产品系列会涉及到最常见的用户画像系统、CRM、数据采集、DataCube等。它是数据化运营的一体两面,你们可以这样认为,数据化运营的每篇文章都会教大家一个具体的术,这些术集合起来,就能称为一个产品或者系统。比如用户营销预测、用户流失预测、用户价值预测、用户分层和聚类、都是数据化CRM中不可缺的一部分。
数据产品,理解成数据运营的姐妹篇即可。双剑合璧,一锤定音。
Python机器学习
这个就不用多介绍了。
老实说,我并不擅长纯理论方面的推导,这个领域的壁垒可以很高,也可以很浅。之所以说它很浅,是因为前人都造好了轮子,我们只是享前人种下的树荫。所以我只是比调包侠强了一些。
所谓强了一些,是我的业务经验能帮助我更好的去理解ML模型和特征工程。我写机器学习还有一个私心,就是希望靠输出巩固自己相关的知识点。
各位不会通过文章成为算法专家,也很难单靠它就转行成数据挖掘工程师。我能写的,是给业务分析师划分出一条职场通道,是为学生党带入门,是帮更多的运营和产品经理们熟悉数据挖掘和机器学习技术。
数据化运营和数据产品,讲的是业务层的道和术,那么这篇系列,就是帮助大家完成技术层的器。虽然我技术一般,但让大家实现一个小型推荐系统或者文本分析平台还是不难的。
最后想说我内心一个隐隐的预测,是机器学习在未来会更加平民化。随着自调参和自编码技术的发展普及,技术的上手难度会越来越低,我相信早晚有一天,业务人员也能在数据平台上通过拖拽完成模型的建立。
Python爬虫
后台留言中,爬虫的呼声很高。
爬虫入门门槛并不高,如果有Python基础,并且不考虑分布式爬虫、反爬虫对抗等技术,一周的时间足够入门,鼓捣出一些好玩的东西。
具体涉及的内容会包括前端知识、urllib和requests的请求、beautifulsoup的网页解析,到最后Scrapy框架的使用。以大家能顺利抓取几个目标网站为结果。
掌握爬虫后,可以做两件具有性价比的事。竞品分析和数据项目,竞品分析包括但不限于对手内容的copy、活跃数据的统计,在工作中帮大家从复制黏贴的重复劳动中抽身出来。
而数据项目是新人最好的练习题,很多人问,我想转行数据分析应该怎么做?各种软硬性技能的锻炼是一方面,但是你总归要证明自己能够胜任,那么用爬虫抓一波数据作为分析练习,并以项目的形式展现出来,绝对事半功倍。
成果总是最好的证明。
你想要投电商公司,那么抓取它对标的竞争对手,可以分析一下对手有多少SKU?售卖情况?商品评论怎么样?随着时间趋势是上升还是下降?这比简历上的踏实肯干、认真努力、学习能力强等评语要靠谱多了。你是面试官,你会不会更倾心?
抓取项目我会尽量选择有意义的,比如AppStore的用户评论,各种内容平台。而这些数据也能用在用户画像、机器学习等文章上。
最后
上述五个系列内容就是今年的写作方向了,大家惊不惊喜,意不意外?
但是呢。
这么多内容我肯定写不完的哈,除了爬虫,其他每个系列都会十来篇往上。它们会像七周成为数据分析师一样连载,所以也希望大家足够耐心,写完是长达数年的艰苦斗争。
因为每个人期待的内容不同,所以想以投票的方式决定侧重点。大家呼声最高的内容优先级也最高,我是很民主的。当然,不是说其他内容会弃之不顾,优先级较低的序列也会适当的穿插进行。
未来可能会为了加速文章的更新,找一些志愿者什么的。
用户赞赏用