大数据之旅--Hadoop的发展史

一、 大数据概念:

大数据(Big Data):指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

大数据主要解决:海量数据的采集、存储和分析计算问题。

数据存储单位(按从小到大的顺序):bit、Byte、KB、MB、GB、TB、PB、EB、ZB、YB、BB、NB、DB。

二、 大数据特点(4V):

**1.Volume(大量):**很多大企业的数据量达到EB量级。

**2.Velocity(高速):**大数据区分于传统数据挖掘的最显著特征。根据IDC的“数字宇宙”的报告,预计到2025年,全球数据使用量将达到163ZB。在海量的数据面前,处理数据的效率对于企业来说就很重要了。
eg:天猫双十一:2020年96s,天猫交易额超过100亿。

**3.Variety(多样):**这种类型的多样性也让数据被分为结构化数据非结构化数据。相对于以往便于存储的以数据库/文本为主的机构化数据,非结构化数据越来越多,包括网络日志、音频、
视频、图片、地理位置信息等,这些多类型的数据对数据的处理能力提出了更高要求。

**4.Value(低价值密度):**价值密度的高低与数据总量的大小成反比。

三、Hadoop

1. Hadoop是什么?

1.Hadoop是一个由Apache基金会所开发的分布式系统基础架构
2.主要解决:海量数据的存储和海量数据的分析计算问题;
3.广义上来说,Hadoop通常是指一个更广泛的概念—Hadoop生态圈

大数据之旅--Hadoop的发展史

2. Hadoop发展史

1.Hadoop创始人Doug Cutting,为了实现与Google类似的全文搜索功能,他在Lucene框架基础上进行优化升级,查询引擎和搜索引擎。
2.2001年年底Lucene成为Apache基金会的一个子项目;
3.对于海量数据的场景,Lucene框架面对与Google同样的困难,存储海量数据困难,检索海量数据速度慢;
4.学习和模仿Google解决这些问题的办法:微型版Nutch;
5.可以说Google是Hadoop的思想之源(Google在大数据方面的三篇论文):GFS—>HDFS; MapReduce—>MR; BigTable—>HBase;
6.2003-2004年,Google公开了部分GFS和MapReduce思想的细节,以此为基础Goug Cutting等人用2年业余时间实现了DFS和MapReduce机制,使Nutch性能飙升;
7.2005年Hadoop作为Lucene的子项目Nutch的一部分正式引入Apache基金会;
8.2006年3月,MapReduce和Nutch Distributed File System(NDFS)分别被纳入到Hadoop项目中,Hadoop就此正式诞生,标志着大数据时代来临。
9.名字来源于Doug Cutting儿子的玩具大象。

上一篇:java-将MySQL连接到Apache螺母


下一篇:04 Hadoop思想与原理