返学费网 > 培训机构 > 北京国富如荷教育

13081913316

全国统一学习专线 8:30-21:00

北京数据分析师招聘要求一般有哪些?

北京数据分析师招聘要求一般有:
统计学、应用数学、计算机等相关专业,本科及以上学历;
熟练掌握多种统计和挖掘方法,熟练使用SPSS、SAS等相关数据分析软件;
较强的数据敏感度,逻辑分析能力和文档写作能力;
有责任心,良好的沟通能力和组织管理能力以及心理承受能力,勇于接受挑战;
有相关经验优先。
数据分析师工作内容:
通过数据分析支持产品改进及新模式的探索;
构建用户行为建模,支持个性化项目;
构建数据评估体系;
构建业务数据分析体系,帮助确定各项业务数据指标;
负责用户行为数据分析,通过监控及分析,推动产品改进,运营调整;
负责构建用户数据模型,挖掘用户属性及用户喜好等需求,为个性化产品推荐提供支持;
负责构建产品、运营及活动用户行为评估体系,通过数据分析对产品、运营、市场提出建议并推动实施;
负责用户行为调研,通过海量数据的挖掘和分析,形成报告,汇报给决策层,支持战略规划。

数据分析师都是干嘛的?薪资一般在什么水平?

数据分析师对现有的数据进行分析,数据分析师本质是提炼数据规则 为数据增值 满足客户需求一个工作流程.

根据职友集网站统计,取自19145份样本,北京数据分析平均工资是15450元/月。选择朝阳行业至关重要,先积累工作经验。现在互联网、 金融、通信、电子商务、数据服务等行业,数据分析相关岗位占据重要地位,数据分析相关工作薪酬逐年走高。

数据分析师的前景如何?

数据分析师的就业前景是广阔的。
1、人才缺口大,IT时代逐渐被DT时代取代,用理性的数据分析代人工的经验分析成为主流,数据分析人才的供给指数仅为0.05,属于高度稀缺。
2、入门相对简单数据分析是一门跨领域技术,不需要很强的理工科背景,反而那些有市场销售、金融、财务或零售业背景的人士,分析思路更加开阔。
3、薪资待遇高1-2年工作经验的大数据分析岗位的平均月薪可达到13k左右的水平。岗位的薪酬和经验正相关,越老越值钱。
4、行业适应性强几乎所有的行业都会应用到数据,数据分析师不仅仅可以在互联IT行业就业,也可以在银行、零售、医药业、制造业和交通传输等领域服务。
5、职业寿命长数据分析职业一旦掌握,可以在职场上收益长久,掌握这门新兴技术都会大有用武之地,受其他外部业务影响相对较小,职位相对稳定。

大数据分析师待遇

北京】数据分析师应届生工资12K左右,1-3年数据分析师平均工资17K,3-5年数据师平均工资在23K;
【上海】数据分析师应届生工资12K左右,1-3年数据分析师平均工资14K,3-5年数据师平均工资在21K;
【深圳】数据分析师应届生工资9K左右,1-3年数据分析师平均工资12K,3-5年数据师平均工资在22K;
【广州】数据分析师应届生工资9K左右,1-3年数据分析师平均工资10K,3-5年数据师平

北京快手自建数据中心在哪

北京市海淀区上地西路6号。
北京快手自建数据中心在快手总部内,地址是北京市海淀区上地西路6号。
快手是一款国民级短视频App。在快手,了解真实的世界,认识有趣的人,也可以记录真实而有趣的自己。快手,拥抱每一种生活。

大数据分析师这个职业怎么样?

近期成为月入两万的数据分析师的广告遍地都是,可能会对一些未入行的同学造成错觉。我个人感觉数据分析师这个岗位,可能近几年会消亡。

这不意味着这份工作本身不重要,而是说这份工作本身可能会转化为产品运营的一些必备技能,而不再需要单独特设人力去做这件事。或者说,不是再需要你学习SQL或者学习python,只是为了成为一名数据分析师。作为一名数据分析师,职业自身的壁垒正在不断消减,更加主动的拥抱业务,解决真正的产品和用户需求,或将成为未来的发展趋势。

数据分析师的日常工作

我们来看下预设中的分析师的一些工作场景,看看数据分析师核心的工作价值。

取数

数据清洗

数据可视化

统计分析

数据方向建设和规划

数据报告

取数 — SQL

很多人对数据分析师的预设是SQL达人,包括现在很多数据分析师的核心工作其实就是进行SQL取数。

这项工作的痛点和难点在于,我们为了得到一个结果,通常需要join很多的数据集,然后整个SQL语句就会写的特别长,而且可能会出现一些问题:比如join的表可能会出现key是重复的情况,造成最终的SQL结果因为重复而变得不可用。所以我们需要专人去专门维护各种各样的数据集,他们知道每张表应该怎么用。

但这个其实是关系型数据库遗留下来的产物——我们完全可以不需要join那么多的表。现在的分布式计算的框架,已经完全可以支持我们只保留一张大宽表,有需要的所有字段,然后所有的操作都在这张大宽表上进行,而且可以保证查询速度。这样数据分析最大的痛点已经没有了。至于你说大宽表里面存了很多重复的数据,是不是很浪费资源(关系型数据库之所以不用大宽表就是从存储空间和性能的trade-off角度考虑的):放心,分布式存储本身是不贵的,而计算效率则是由分布式计算框架进行专门优化的。现在的计算框架计算的响应速度,已经可以在大宽表上可以很快的得到结果了。相比之下,多次join操作反而可能会更慢一些。

同时,现在很多公司的NB框架,其实都已经支持拖拽取数了,也根本不需要写SQL了。

此外,不得不说的一点是,SQL语句本身真的不难。可能如果你自己静下心来想学,一个周末的时间肯定能搞定。而资历老的数据分析师,并不会比资历轻的数据分析师,在SQL语句的写作上有什么本质的区别。以前可能还有一些小表join大表的trick,但现在计算框架大多都已经优化过这些了。所以即使是需要写SQL的场景,本身也是没有什么难度的。

所以,通过大宽表来解放数据分析工作的生产力。即使在一定要写SQL做join操作的时候,本身也不是一件壁垒特别高的事情。取数这件事儿,对于其他岗位的同学,就已经没那么复杂了。

数据清洗 — Python

数据清洗其实是很多强调python进行数据分析课程中,python部分的主要卖点。包括但不限于,怎么处理异常值,怎么从一些原始的数据中,得到我们想要的数据。

在日常产品需求过程中,这种需求的场景其实很小。因为数据大部分都是自己产生的,很少会出现没有预设到的极端值或者异常情况。如果有的话,一般就是生产数据的同学代码写的有bug,这种发现了之后修复代码bug就行。

数据清洗在工作场景的应用在于落表——就是把原始数据变成上面提到的,可以通过SQL提取的hive表。这个工作是需要懂代码的同学去支持的,他们负责数据的产出,包括数据的准确性,数据的延时性(不能太晚产出)等等。前文提到的生成大宽表,其实也可以是他们的工作。这其中就涉及到一些代码的效率优化问题,这个就不是简单懂一点python可以搞定的了,可能涉及到一些数据压缩格式的转化,比如Json/Proto buffer到hive表的转化,还有一些计算框架层面的调优,比如spark设置什么样的参数,以及怎么样存储可以更好的提升查询速度。

所以这部分工作一般是由懂代码的同学完成的。可能数据团队会有比较少数的同学,管理支持全公司的基础表的生成。

数据可视化 — Tableau

很多之前在数据分析做实习的同学,主要的工作内容就是在一个商业化的软件(比如Tableau)上,做一些统计报表。这样可以通过这些数据报表,可以很方便的查看到所属业务的一些关键指标。这些商业软件通常都比较难用,比如可能需要先预计算一下才能输出结果;而且不太好做自定义功能的开发。稍微复杂一点的需求场景,可能就需要一个专门的同学捣鼓一阵,才能输出最终的统计报表。

现在有更先进的套路了。

首先可视化。很多公司打通了前端和后端的数据,这样就可以通过网页查询原始的数据库得到数据结果。而现在很多优秀的前端可视化插件,已经可以提供非常丰富的统计图形的支持。而且因为代码是开源的,可以根据公司的需求场景进行针对性的开发,公司可以再辅以配置一些更加用户友好的操作界面,这样一些复杂需求也有了简单拖拽实现的可能。而且这些前端js代码都是免费的!对于公司来说也能省去一笔商业公司的采买成本。

其次很多商业软件,都是针对小数据集场景设计的。在一些大数据集的场景,一般需要先预计算一些中间表。而如果自己公司定制化开发的前端展示结果,就可以根据需要自主设置计算逻辑和配置计算资源,先在后端进行预计算,前端最终只是作为一个结果展示模块,把结果展示和需要的预计算进行解耦。这样就省去了很多中间表的产出,也会更加快速的得到想要的业务指标,快速迭代。

所以可视化数据的工作量也会大大减少。而且会变成一个人人都可以操作,快速得到结果的场景。

统计分析

对于一名数据分析师而言,统计学分析可能是一块知识性的壁垒。尤其是在现在ab实验成为互联网公司迭代标配的今天。需要把实验设计的那套理论应用起来:比如ab实验进行后的显著性检验,多少样本量的数据才能让这个结论有效可信呢。

但是,你我都知道,经典的统计分析其实是一个非常套路性的工作。其实就是套公式,对应到代码层面,可能也就一两行就搞定了。这个代码的统计分析结果可以作为ab平台的指标展示在最终的ab结果上,大家看一眼就能明白。即使是对那些可能不知道显著性是什么意思的人,你可以跟他简单说,显著了才有效,不显著就别管。

这么一想是不是其实不怎么需要投入额外的人力进行分析?

其他数据相关的工作

数据层面的规划和设计。移动互联网刚刚兴起的时候,可能那时候数据分析师需要对每一个数据怎么来设计一套方案,包括原始的埋点怎么样,又要怎么统计出想要的结果。但现在大部分已经过了快速迭代的时代了,新产品的埋点添加可以参考老产品,这就意味着形成套路了。而一旦形成套路,其实就意味着可以通过程序直接完成或者辅助完成。

数据报告。那就真的是一件人人都能做的事情了,试想谁没在期间做过数据报告呢?以前只是因为数据都是从分析师产出的,而如果人人都能取到数据的话,数据报告是不是也不是一个真需求呢?

在我看来,数据分析师这个岗位的天花板和其他岗位相比起来是比较低的。可能工作一两年之后,从岗位本身就已经学不到什么额外的工作知识了。主要的工作内容技术含量不是特别高,技能性的更多的是一些可以简单上手的东西,而且做的时间长了,在这些技能性的事情上得到的积累并不是很多。

数据分析师更像是一个在时代变迁过程中的一个中间岗位:我们从一个基本没有数据的时代,突然进入了一个数据极大丰富的时代,在这个过程中,我们都知道重视数据。那怎么能够利用这个数据呢?可能之前的那一帮人并没有太多的经验,于是老板就招一些人专门来研究一下它,同时做一些底层数据的优化。

经过多年的迭代,现在互联网行业的每个人都知道数据的价值,也大概知道了什么样的数据是重要的,怎样可以更好的挖掘数据背后的价值。同时底层的基础设施也已经支持可以让一个之前没有经验的同学可以快速的上手得到自己想要的关键数据。这时候对于一个职业数据分析师来说,他的任务就已经完成了。就如同当人人都会讲英语的时候,翻译其实也就没有存在的价值了。

此后的数据分析工作,可能不再是一些单独的人做的工作。它会变成一个产品和运营的基础工具,而且足够简单,没有取数的门槛。只是产品运营怎么样可以更好的认识数据,通过数据本身更好的配合产品运营的工作,这已经超脱我们一般理解的数据分析师的工作了,而是一个产品运营分内的工作。

对于那些已经在从事数据分析师岗位的同学来说,建议不要把心思全部投入到数据分析的本职工作上,以完成任务为核心KPI。而是不要给自己设置边界,多从用户的角度思考问题,不要因为是产品运营的工作就不去做了。数据分析师这个职业发展到这个阶段,要么做更加底层的数据建设,要么拥抱业务,最大化的发掘数据背后背后的价值。不要再死守着数据分析的“固有技能”沾沾自喜了。

数据本身的价值是无穷的,作为数据分析师,你们已经先人一步的掌握它了,要有先发优势。你们最接近数据的人,是最可能发现用户的宝藏的人。

招聘网站数据分析师岗位分析

前言:对一个运营人来说,数据可以监测店铺运营状态,可以帮助制定经营目标,数据分析是运营工作的必须掌握的一项技能。

本文将对数据分析师这个行业的求职环境和薪资水平做一个简单的分析,使用的工具是Excel,旨在对数据分析操作过程做一个梳理和记录。

(1)各城市对数据分析师岗位需求情况 

(2)各城市各工作年限的招聘占比情况 

(3)各学历的招聘占比情况 

(4)数据分析师在各城市的薪资水平情况 

 (5)工作经验的不同,薪酬的变化情况

本次数据分析一共有6800+条数据,在数据准备阶段我们要做的是理解每一列数据的意义和作用,以便于数据分析过程能够准确的调用。

城市:用于比较不同城市对数据分析师的需求如何

教育要求:用于比较各学历的岗位占比

职位ID:表示职位的唯一表示,也就是每一行数据的唯一标识,用于去掉重复ID

薪水:比较不同城市、和所属领域的薪水区别

工作年限:从时间轴上对比薪资涨幅

为了方便后续处理、分析、呈现,要去掉重复无效的数据,甚至改变表格结构,将数据变成干净可直接使用的数据。

(1)删除重复值。这里【职位ID】代表每行数据的唯一性。删除重复数据后,保留了5031行唯一数据。

(2)缺失值处理

首先检查数据是否存在缺失值,先查看完整数据列【职位ID】的计数:5032行,再选择其他列查看是否缺少数据,对缺失数据的处理有多种方法,根据实际情况选择最为合理的处理方式。

通过查看可以发现【城市】列缺失2条数据,由于缺失数据较少,并且可以通过【公司所在商区】确定缺失数据都为“上海”,这里选用人工手动补全。操作:选择【城市】列--{开始-查找和选择-定位条件-空值}-定位到所有空值-输入“上海”-使用Ctrl+Eneter快捷键填写所有空值。

(3)选择子集

在表格中有些数据是我们分析过程中使用不到的,将其隐藏(尽量不删,保证数据的完整性)。

这里隐藏的列有:【公司全名】、【公司ID】、【公司所在商区】、【职位福利】。

(4)列名重命名

将不合适的列名更改为我们容易理解的形式。

(5)字段分列

①字段【公司所属领域】中有跨领域的情况存在,所以要对该列数据进行拆分。

操作:将【公司所属领域】复制到最后一列(因为分列后的单元格会覆盖右边的单元格),重命名为【公司所属领域1】,{数据--->分列--->选择“分隔符号”--->下一步--->分隔符合选择逗号--->勾选(连续分隔符视为单个处理)---完成}将分隔出来的列重命名为【公司所属领域2】。

②将字段【薪水】处理为【最低薪水】、【最高薪水】、【平均薪水】,用于存放清洗后的薪水数据。

这里有两种方法可以实现:

第一种是上面提到的分列,用-作为分隔符再将k替换。再用函数AVERAGE求出平均薪水。

第二种是利用函数实现:

LEFT函数与FIND函数结合求最低薪水:left(单元格位置,第一个k出现的位置-1)

=LEFT(T2,FIND("k",T2)-1)

筛选出上述步骤中出现的错误值,可以发现是由于原数据【薪水】中的k为大写K,将【薪水】中的所有K替换成k。

Mid函数、find函数、len函数结合求最高薪水:mid(单元格位置,-出现的位置+1,-与右边的k之间的长度即总长度-“-”的位置-1个k的位置)

=MID(T2,FIND("-",T2)+1,LEN(T2)-FIND("-",T2)-1)

筛选出上述步骤中出现错误的最高薪水,找到原因:原数据【薪水】列是**K以上,不是范围。

选中最高薪水列,定位为错误,delete删除错误值--再在单元格内输入=ctrl+方向键←(让其等于最低薪水)--CTRL+enter(在不连续的单元格中同时输入同一个数据或公式)

再把带公式的最高/低薪水复制粘贴为数值。

在操作的时候会出现数字显示为文本格式,可以选择该列*1,使其转换为数字格式。或者全选ctrl+SHIFT+↓点橙色感叹号--->转化为数字。

最后用函数AVERAGE求出平均薪水。

(6)异常值处理

在查看【职位名称】时发现,职位中有一些不属于数据分析师的岗位,需要把这些职位筛选过滤掉。

操作:①在原表【职位名称】列后插入新的列命名【是否为数据分析职位】;

②插入函数=IF(COUNT(FIND({"数据运营","数据分析","分析师"},L2)),"是","否"),双击单元格由下方进行自动填充;

③筛选出“是”,过滤掉异常值。

通过以上数据清洗过程,数据已经是可以直接使用的干净数据了,现在开始真正进入数据分析。数据分析通过数据透视表实现,最终通过可视化图表直观明了的展现。

(1)各城市对数据分析师岗位需求情况

操作:行标签 :城市;值:计数项 城市。 值显示方式-->总计的百分比

由数据可见,从杭州往下的占比都不足3%,为了更清晰的展示局部占整体的百分比情况,我们选择通过字母饼图,将占比较少的放到第二绘图区。

操作:选中赋值的数据表-->插入选中子母饼图。选中插入的饼图-->右键选中数据系列格式,将系列分隔依据的值改成小于7%,调整饼图样式,使之美观。

结论:从数据透视表可以看出,在北京数据分析的岗位最多,往后是上海、深圳、杭州、广州。

(2)各城市各工作年限的招聘占比情况

行标签:城市; 列标签:工作年限 。值:城市 计数

将值显示方式改为:总计百分比。

用百分比堆积柱状图来展示各城市各工作年限岗位需求情况。

结论:从数据透视表可以看出,按工作年限要求来看,1-3年的需求量最大,其次是3-5年,这说明数据分析对年轻人需求将更多。

(3)各学历的招聘占比情况

行标签:教育要求;值:计数项 教育要求。值显示方式:总计的百分比

结论:从数据透视表可以看出,从学历要求上看,本科学历的需求量最大,其次是专科,博士占比非常少。

(4)数据分析师在各城市的薪资水平情况

行标签:城市,值:平均值项 平均薪水

结论:从数据透视表可以看出,深圳平均薪资最高,北京和深圳薪资相差不大,其次北京,上海,杭州。

(5)工作经验的不同,薪酬的变化情况

行标签:工作年限 值:平均值项 平均薪水 

结论:从上面数据透视结果可以看出,随着工作经验的增长,数据分析师的薪酬也在不断增加。

综合以上数据透视分析结果,我们可以得出以下分析结论:

(1)北京、上海、广州、深圳、杭州占据了数据分析岗位数量的90%以上,数据分析师的工作机会主要集中在一线城市,如果想从事数据分析师,最好去这些城市发展,其他城市可选择性较低。

(2)从薪资水平来看,深圳和北京平均薪资较高,其次是上海、杭州,这也说明了,想要长期从事数据分析师岗位,首先应选择一线城市。从工作年限随平均薪资的变化曲线可以看到,前期薪资增长较慢,后期增加较快,10年以上工作经验的人,可以获得相当丰厚的薪酬。

(3)从学历方面来看,本科学历占比超过一半,可见本科成为数据分析岗位中最为常见的学历门槛,其次是大专,硕士以上学历与不限,占据较少部分,可见数据分析师岗位的性质,相比与学术型的研究工作,更偏向于结合业务分析。

(4)结合学历和工作年限要求可以看出,数据分析师是个偏年轻化的岗位,大量的工作岗位集中在1-5年工作年限。结合薪酬随工作年限变化曲线来看,数据分析师需要在3年内提升自己的业务能力,3年后薪酬会有较大的增长,5年是个瓶颈期,如果5年内没有较大的能力提升,之后的竞争压力会很大。

怎么面试大数据分析师

1、考察对数据的敏感度。

面试的时候,数据部门经理问一些生活中的数据的问题,一个优秀的数据分析师对数据有很强的敏感度,生活中常见的数据,你直观的感受往往能反应出你的资质。

2、数学基本概念和统计学方法。

遇到的有排列组合的问题的,还有指数衰减的定义等等。或者直接给一个问题或者数据,问问你打算用什么样的方法怎样去分析。在给你数据的时候,一定要记得说数据预处理!这一点非常重要,这样会让人觉得你的回答逻辑清楚,有条有理。如果想从事与数据科学相关的岗位,需要学习的数据知识可以参考成都加米谷大数据培训机构的:想从事数据科学相关岗位,这些数学基础“必备”。

3、编程能力。

你一定要有自己熟练的软件,常问的问题是,你一般用excel干什么,常用的函数有哪些,是否用过数据透视表,是够用过宏,平时多久用一次R,是否用过或了解过并行,等等关于软件的问题。在面试小公司时,HR会可能直接给你一个数据进行数据分析,题目一般给的都不太难。

想要了解更多关于数据挖掘和数据分析之间的区别可以到CDA认证中心咨询一下,CDA行业标准由国际范围数据领域的行业专家、学者及知名企业共同制定并每年修订更新,确保了标准的公立性、权威性、前沿性。通过CDA认证考试者可获得CDA中英文认证证书。

数据分析师就业前景

数据分析师就业前景如下:

从20世纪90年代起,欧美开始大量培养数据分析师,直到现在,对数据分析师的需求仍然长盛不衰,而且还有扩展之势。

据数联寻英发布《大数据人才报告》显示,未来3-5年内大数据人才的缺口将高达100万。根据中国商业联合会数据分析专业委员会统计,未来中国基础性数据分析人才缺口将达到1400万,而在BAT等大型互联网公司的招聘职位里,80%以上都在招大数据人才。进入大数据行业,也成了越来越多人实现职场高薪梦的路径之一。

在美国,大数据分析师每年薪酬高达17.5万美元。在国内大数据分析师平均薪酬为:19970k。

数据分析师发展前景:

从城市岗位需求数量分布来看,关于数据分析师招聘区域主要集中在一线城市及新一线城市,需求量较大城市的依次是:北京、上海、深圳、广州、西安。

从岗位薪资状况来看,薪资水平较高省份分别为北京、上海、广东、浙江、福建等区域。在数字经济向生产生活各个领域渗透的同时,长三角和珠三角这两个重要经济区走在了应用前列。

温馨提示:为不影响您的学业,来校区前请先电话咨询,方便我校安排相关的专业老师为您解答
  • 热门课程
姓名不能为空
手机号格式错误