免费开通大数据服务:https://www.aliyun.com/product/odps
概述:大数据时代,谁掌握了足够的数据,谁就有可能掌握未来,而其中的数据采集就是将来的流动资产积累。
任何规模的企业,每时每刻都在产生大量的数据,但这些数据如何归集、提炼始终是一个困扰。而大数据技术的意义确实不在于掌握规模庞大的数据信息,而在于对这些数据进行智能处理,从中分析和挖掘出有价值的信息,但前提是如何获取大量有价值的数据。
相信很多做过网站管理的人对网站访问日志(Access Log)应该不会陌生,现在主流的网站服务器(如apache,tomcat,ngxin等)都支持将日志数据记录到服务器的日志文件中。
网站的访问日志中记录了很多有用的信息,比如正常用户的访问足迹、恶意捣乱的足迹、用户的入站方式、出站页面等信息。对以上信息汇总分类后,可以得到更有价值的东西,比如可以得到搜索引擎的抓取频率和来访时间段、可以得到哪些页面是用户的热搜等。
下面介绍一个对中小企业客户比较适合的,低成本投入的日志采集存储方案;
对于一个比较活跃的网站来说,访问日志将会是一个海量的数据,考虑到网站日志更新频繁、和海量数据的特点,我选择了Flume + MaxCompute的采集和存储方案。
Flume
Flume是一个分布式、高可靠、高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
MaxCompute
MaxCompute原名是ODPS,是由阿里云自主研发的一款服务,提供针对TB/PB级数据、实时性要求不高的分布式处理能力,它适用于海量数据的存储、计算,商业智能等领域。
flume能够支持多种Source和Sink插件,而我们今天要介绍的就是如何使用Apache flume的 Datahub sink插件将日志数据实时上传到Datahub上然后归档到MaxCompute表中。这样做不需要投入大量人力去对环境进行部署和维护,可以有效降低企业成本,并保障了数据安全,是一个方便高效的运行方案。
实验前您需要:
1)拥有Linux系统;
2)拥有一定的开发经验;
3)拥有阿里云官网实名认证账号,并且创建好账号Access Key;
本实验您将完成以下任务:
2)开通MaxCompute(https://www.aliyun.com/product/odps)和Datahub;
3)下载并部署Datahub Sink插件;
4)创建需要上传的本地文件;
5)创建Datahub Topic;
6)配置Flume作业配置文件;
7)启动Flume,将数据上传至Datahub;
8)配置Connector将数据归档至MaxCompute。
【17分钟视频教程】https://yq.aliyun.com/edu/lesson/play/487
【实验手册】如何实现Flume收集网站日志数据到MaxCompute.pdf
【常见问题】Flume采集网站日志到MaxCompute常见问题汇总
欢迎加入阿里云数加钉钉群讨论