打开服务 mongod.exe --dbpath E:\Develop\mongodb_64\data\db
在安装和打开服务之前要建一个db 文件的存储位置
然后打开服务
打开服务之后 打开图形化界面连接 好像也没什么需要注意了
通俗来说, robots.txt 是遵循 Robot协议 的一个文件,它保存在网站的服务器中,它的作用是,告诉搜索引擎爬虫,本网站哪些目录下的网页 不希望 你进行爬取收录。在Scrapy启动后,会在第一时间访问网站的 robots.txt 文件,然后决定该网站的爬取范围。
当然,我们并不是在做搜索引擎,而且在某些情况下我们想要获取的内容恰恰是被 robots.txt 所禁止访问的。所以,某些时候,我们就要将此配置项设置为 False ,拒绝遵守 Robot协议
作者:一只小蜗牛Snail
链接:https://www.jianshu.com/p/1b5d7d904b21
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。
Docker 是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的 Linux 机器上,也可以实现虚拟化。容器是完全使用沙箱机制,相互之间不会有任何接口。
Docker类似于虚拟机那种环境 http://get.daocloud.io/
Splash是一个javascript渲染服务。它是一个带有HTTP API的轻量级Web浏览器,使用Twisted和QT5在Python 3中实现。QT反应器用于使服务完全异步,允许通过QT主循环利用webkit并发。
一些Splash功能:
- 并行处理多个网页
- 获取HTML源代码或截取屏幕截图
- 关闭图像或使用Adblock Plus规则使渲染更快
- 在页面上下文中执行自定义JavaScript
- 可通过Lua脚本来控制页面的渲染过程
- 在Splash-Jupyter 笔记本中开发Splash Lua脚本。
- 以HAR格式获取详细的渲染信息
何为动态的页面:数据改变吧
虚拟化 任务管理 CPU查看是否开启
Redis是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。
分布式让爬虫的效率更高
linux 的安装 操作系统的安装(centos6)
VMware安装好了之后,要先创建一个虚拟环境,分区磁盘运行内存啥的。然后才安装操作系统, 对啊我的系统也放在这些分区中,这些硬件中
所以操作系统不应该包括这些的。自己不可能在配置这些硬件什么之类的,不然就是写死了
windou连接虚拟机 传输文件 Xshell Xftp 一般文件放在/OPT 但是我解压文件之后,应该怎么安装呢
所以计算机也会有全局变量这种东西 环境变量也有全局的和局部的
克隆的时候也要注意硬件网卡的东西,克隆出来是一样的可能会冲突。 硬件?TCP/IP吗
那该怎么办呢 删除网卡 vi ifcfg-eth0
然后是删除硬件信息 70-persistent-net.rules 不对啊 把自己的网卡还有硬件信息都删了,那自己怎么办
怎么克隆呢:先拍快照 然后管理里有克隆
然后发现用户名是一样的那要怎么改呢?
cd /etc/sysconfig/
vi network
init 6 是重启吗
分布式内容:
在虚拟机中装了什么,python3,scrapy以及它的环境,scrapy-redis 而他们是跑爬虫程序的机器
windows是核心服务器需要装redis服务器
我们在master上搭建一个redis数据库`(注意这个数据库只用作url的存储),并对每一个需要爬取的网站类型,都开辟一个单独的列表字段。通过设置slave上scrapy-redis获取url的地址为master地址。这样的结果就是,尽管有多个slave,然而大家获取url的地方只有一个,那就是服务器master上的redis数据库
并且,由于scrapy-redis自身的队列机制,slave获取的链接不会相互冲突。这样各个slave在完成抓取任务之后,再把获取的结果汇总到服务器上
3.分布式爬虫的实现
使用三台机器,一台是win10,两台是centos6,分别在两台机器上部署scrapy来进行分布式抓取一个网站
win10的ip地址为192.168.31.245,用来作为redis的master端,centos的机器作为slave
master的爬虫运行时会把提取到的url封装成request放到redis中的数据库:“dmoz:requests”,并且从该数据库中提取request后下载网页,再把网页的内容存放到redis的另一个数据库中“dmoz:items”
slave从master的redis中取出待抓取的request,下载完网页之后就把网页的内容发送回master的redis
重复上面的3和4,直到master的redis中的“dmoz:requests”数据库为空,再把master的redis中的“dmoz:items”数据库写入到mongodb中
master里的reids还有一个数据“dmoz:dupefilter”是用来存储抓取过的url的指纹(使用哈希函数将url运算后的结果),是防止重复抓取的
这些数据库:mongo,redis,Mysql 在python连接他们的时候,他们都要的打开服务,都是独立的软件,如何进行通信呢?
就通过这个服务的,应该会有端口之类的 设计这些东西可能都是基于Linux系统吧,都没有图形化界面 也没有像qq那样安装的简单
所以他们也是提供的自己的图形界面的 一个非关系型的数据库 一个是key value形式的 有16个小数据库的 一个关系型的大型数据库
现在环境已经搭建好了,我们的目标是什么,并发吗??? 按照上面的要求我必须在master中存request url 到redis中
然后在slave中获取master中的url进行爬取
splash与request结合 :有什么转变吗?只是在原基础上加了docker 的访问地址吗?
动态爬取吗??? 加载js吗? 与js有关系吗 不能爬取有js渲染的吗? 加载东西也是需要时间的
原来是这个意思
什么是lua代码 不晓得 这个lua代码应该是docker中的吧
splash 与scrapy结合:去上面的方式有什么不同 python提供了一个类吧 SplashRequest
这个就是 当我们发送请求的时候不用我们原来的Spider.request 了 而是用SplashRequest这个请求了
需要在setting中修改东西的
问题
有的页面的很多部分都是用JS生成的,而对于用scrapy爬虫来说就是一个很大的问题,因为scrapy没有JS engine,所以爬取的都是静态页面,对于JS生成的动态页面都无法获得
官网http://splash.readthedocs.io/en/stable/
解决方案
利用第三方中间件来提供JS渲染服务: scrapy-splash 等
利用webkit或者基于webkit库
Splash是一个Javascript渲染服务。它是一个实现了HTTP API的轻量级浏览器,Splash是用Python实现的,同时使用Twisted和QT。Twisted(QT)用来让服务具有异步处理能力,以发挥webkit的并发能力
pip install scrapy-splash
scrapy-splash使用的是Splash HTTP API, 所以需要一个splash instance,一般采用docker运行splash,所以需要安装docker
selenium 是一套完整的web应用程序测试系统,包含了测试的录制(selenium IDE),编写及运行(Selenium Remote Control)和测试的并行处理(Selenium Grid)。Selenium的核心Selenium Core基于JsUnit,完全由JavaScript编写,因此可以用于任何支持JavaScript的浏览器上。
selenium可以模拟真实浏览器,自动化测试工具,支持多种浏览器,爬虫中主要用来解决JavaScript渲染问题。
selenium与scrapy结合:selenium可以驱动浏览器,scrapy还有去重url的作用
去重是在调度器有记录的,所以我们还想用selenium发送请求的话可以下载中间件下手
def start_request(self):
chrome = webdriver.Chrome()
chrome = get(url)
中间件有很多东西,但每次我们用的时候都是看源码。找到我们想要的模块
要使用middlewares就要在setting中开启 要使用pipeline就要setting中开启
虽然很好去关注下载中间件,但是这也是一个流程,我们下载的东西,肯定经过里面的
开始 // 属性用@符号,属性名用双引号 用中括号括起来 下一层用/ 隔开
还可以拼接 | concat 有意思的string
' concat(//span[@class="total"]/text(),//span[@class="unit"]/span/text())'
为什么那个什么ul下的li 索引不是从零开始的
如果推送过来的item不是字典的话 要记得用dict转换
好像真的是,他会先访问url 然后会在调度器中队列排序
scrapy-redis 这个也要安装的 在redis中就会生成字段 为什么redis不要连接呢