原文:http://blog.csdn.net/chaofanwei/article/details/39476535
全文索引-lucene,solr,nutch,hadoop之lucene
全文索引-lucene,solr,nutch,hadoop之solr
我在去年的时候,就想把lucene,solr,nutch和hadoop这几个东东给详细的介绍下,但由于时间的关系,我还是只写了两篇文章,分别介绍了一下lucene和solr,后来就没有在写了,但我心里还是期待的,虽然到现在我没有真正搞过nutch和hadoop实战项目,但公司马上就要做hadoop大数据的监控了,我一直都说,要做一个有准备的人,因此我从去年到现在从未停止过对hadoop相关技术的学习、思考、实战。
在去年上半年的时候,我还在我的上一家公司,有一天老总说让我研究一下搜索引擎方面的知识(公司有seo方面的业务),于是我就从网上搜寻,最后我无意间发现了一个开源的搜索引擎的apache旗下的项目-nutch,于是乎,我就沉醉于其中,从网上找资料,搭建环境(只能在linux系统上),并最终能够运行了。我从中浅浅的了解了一下搜索引擎方面的知识,但是让我最想不到的竟然是nutch竟然是hadoop项目出现的原因、导火线、父项目。本来我想单独再写两篇分别关于nutch和hadoop的项目,但真实需要花费很多的个人时间,而且nutch环境并不好搭建,而且毕竟我的重点在于hadoop,因此,我在本文还是先说说nutch和hadoop的背景以及介绍吧。
Hadoop是Apache Lucene创始人Doug Cutting创建的,Lucene是一个广泛使用的文本搜索系统。Hadoop起源于Nutch,一个开源的网络搜索引擎,它本身也是Lucene项目的一部分。
1、Hadoop背景
Nutch项目始于2002年,一个可以运行的网页爬取工具和搜索引擎系统很快“浮出水面”。但后来,开发者认为这一架构可扩展度不够,不能解决数十亿网页的搜索问题。
2003年谷歌公司发表了一篇关于谷歌分布式文件系统的文章,简称GFS。GFS或类似的架构,可以解决他们在网页爬取和索引过程中产生的超大文件的存储需求。特别关键的是,GFS能够节省系统管理所花的大量时间。
在2004年,他们开始着手实现一个开源的实现,即Nutch的分布式文件系统NDFS。
2004年,谷歌发表论文向全世界介绍他们的MapReduce系统。
2005年初,Nutch的开发人员在Nutch上实现了一个MapReduce系统,到年中,Nutch的所有主要算法均完成移植,用MapReduce和NDFS来运行。
Nutch的NDFS和MapReduce实现不知适用于搜索领域。在2006年2月,开发人员将NDFS和MapReduce移出Nutch形成Lucene的一个子项目,称为Hadoop。大约在同一时间,Doug Cutting加入雅虎,雅虎为此组织了一个专门的团队和资源。
2008年1月,Hadoop已成为Apache的*项目,证明了它的成功、多样化、活越性。
2、Apache Hadoop和Hadoop生态圈
尽管Hadoop因MapReduce和分布式文件系统HDFS而出名,但Hadoop这个名字也用于一组相关项目的统称,如下:
2.1、Common
一组分布式文件系统和通用I/O组件与接口(序列化、java rpc和持久数据结构)
2.2、Arvo
一种支持高效、跨语言的RPC以及永久存储数据的序列化系统。
2.3、MapReduce
分布式数据处理模型和执行环境,运行于大型商用集群。
2.4、HDFS
分布式文件系统,运行于大型商用集群。
2.5、Pig
一种数据流语言和运行环境,用以检索非常大的数据集。Pig运行在MapReduce和HDFS集群上。
2.6、Hive
一个分布式、按列存储的数据仓库。Hive管理HDFS中存储的数据,并提供基于SQL的查询语言(由运行时引擎翻译成MapReduce作业)用以查询数据。
2.7、HBase
一个分布式、按列存储数据库。HBase使用HDFS作为底层存储,同时支持MapReduce的批量式计算和点查询。
2.8、ZooKepper
一个分布式、可用性高的协调服务。ZooKepper提供分布式锁之类的基本服务用于构建分布式应用。
2.9、Sqoop
在数据库和HDFS之间高效传输数据的工具。
3、后续
虽然我去年就接触到hadoop,并进行了一些列的学习(网上视频和资料),但还是没有学好,实际用起来。刚好今年公司准备设计开发大数据方面的监控,公司就给我们这些开发人员买了几本Hadoop方面的书籍,但我草草的看了一下,最后还是自己买了一本《Hadoop权威指南》,觉得还是这本书写的比较好,我也看完了一遍,为了总结Hadoop相关知识和便于查找,我后续准备把里面一些比较重要的知识给总结分享下,敬请期待!