一、 大数据概念:
大数据(Big Data):指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。
大数据主要解决:海量数据的采集、存储和分析计算问题。
数据存储单位(按从小到大的顺序):bit、Byte、KB、MB、GB、TB、PB、EB
、ZB、YB、BB、NB、DB。
二、 大数据特点(4V):
**1.Volume(大量):**很多大企业的数据量达到EB量级。
**2.Velocity(高速):**大数据区分于传统数据挖掘的最显著特征。根据IDC的“数字宇宙”的报告,预计到2025年,全球数据使用量将达到163ZB。在海量的数据面前,处理数据的效率对于企业来说就很重要了。
eg:天猫双十一:2020年96s,天猫交易额超过100亿。
**3.Variety(多样):**这种类型的多样性也让数据被分为结构化数据
和非结构化数据
。相对于以往便于存储的以数据库/文本为主的机构化数据,非结构化数据越来越多,包括网络日志、音频、
视频、图片、地理位置信息等,这些多类型的数据对数据的处理能力提出了更高要求。
**4.Value(低价值密度):**价值密度的高低与数据总量的大小成反比。
三、Hadoop
1. Hadoop是什么?
1.Hadoop是一个由Apache基金会所开发的分布式系统基础架构
;
2.主要解决:海量数据的存储
和海量数据的分析计算
问题;
3.广义上来说,Hadoop通常是指一个更广泛的概念—Hadoop生态圈
。
2. Hadoop发展史
1.Hadoop创始人Doug Cutting,为了实现与Google类似的全文搜索功能,他在Lucene框架基础上进行优化升级,查询引擎和搜索引擎。
2.2001年年底Lucene成为Apache基金会的一个子项目;
3.对于海量数据的场景,Lucene框架面对与Google同样的困难,存储海量数据困难,检索海量数据速度慢;
4.学习和模仿Google解决这些问题的办法:微型版Nutch;
5.可以说Google是Hadoop的思想之源(Google在大数据方面的三篇论文):GFS—>HDFS; MapReduce—>MR; BigTable—>HBase;
6.2003-2004年,Google公开了部分GFS和MapReduce思想的细节,以此为基础Goug Cutting等人用2年业余时间
实现了DFS和MapReduce机制,使Nutch性能飙升;
7.2005年Hadoop作为Lucene的子项目Nutch的一部分正式引入Apache基金会;
8.2006年3月,MapReduce和Nutch Distributed File System(NDFS)分别被纳入到Hadoop项目中,Hadoop就此正式诞生,标志着大数据时代来临。
9.名字来源于Doug Cutting儿子的玩具大象。