大数据从0到1分几步?
大数据有多火?这样的答案可能有千百种,也从反向证明了大数据真的太火,因为所有人都知道。众所周知,在Gartner报告中,常常会看到炒作周期这个词汇。这意味着有很多技术,虽然人人皆知,但是距离实际应用落地还有一段距离,这就是炒作期。
然而,大数据应该过了炒作期,我们更应该关注的是大数据的落地,关注从零到一的过程。正是因为几百TB甚至几PB的数据限制没有任何意义,才让数据的处理过程显得更为重要。
首先我们要分清大数据与传统的统计分析的区别,首先,大数据的体量更大,在大数据分析过程中,也采用全体分析,而非抽样形式;其次,在分析过程中,大数据更注重相关性,而非因果关系;最后,在大数据时代,因为数据的更新速度快,人们更注重效率,而非绝对的精确。
这些变化让大数据不得不面临处理方法的变化。一般来讲,大数据的处理流程有四步,分别是:采集、导入和预处理、统计和分析,然后是数据挖掘。
数据的采集,在大数据处理中一直都是第一步。在生活中可以映射到方方面面,每一次的搜索痕迹、注册信息都是数据,而互联网的发展也将为未来数据的采集提供帮助。而在数据采集过程中,如何处理好峰值将是面临的首要问题,而这就要依靠合理的分流、公有云、两地三中心等IT架构方法来解决问题。
数据传输需要解决峰值过高问题
数据的导入和预处理,常常是与第一步数据的采集合在一起进行,通过数据库来对数据进行集中存储。可以将结构性数据和非结构性数据存储,数据导入过程中,最重要的特点是每秒导入的数据量比较大。
数据的统计与分析已经成为近年来的一种新兴职业,收到很多企业的青睐。尤其在可视化分析领域,通过对数据的计算将计算结果用图片等形式类进行呈现,得出一个直观的结论。这样的分析方法与用户的交互性较强,数据的显示体现多维性,同时能够最直观的得出数据特点。
数据挖掘往往是大数据处理的最后一步,数据挖掘往往是已经设定好一个主体,为了找到某个答案而进行分析和计算,从而达到预测的效果。数据挖掘的定义是从海量数据中找到有意义的模式或知识,数据挖掘也成为数据的终极目的。
数据挖掘
(稿件来自:信息部王阳)