Scrapy基础(二)————Scrapy的安装和目录结构

Scrapy安装:

1,首先进入虚拟环境
    2,使用国内豆瓣源进行安装,快!

 pip install -i https://pypi.douban.com/simple/ scrapy

3,特殊情况出错:缺少c++,解决办法:自己安装了个vs2015

基本命令:

 scrapy --help
Available commands:
bench Run quick benchmark test
commands
fetch Fetch a URL using the Scrapy downloader
genspider Generate new spider using pre-defined templates
runspider Run a self-contained spider (without creating a project)
settings Get settings values
shell Interactive scraping console
startproject Create new project
version Print Scrapy version
view Open URL in browser, as seen by Scrapy [ more ] More commands available when run from project directory
到时候用到再说

创建工程:

 在这里只能通过命令行:pycharm 没有加载scrapy,与Django 不一样
    命令:
        #注意:cd 到所需创建工程的目录下
        scrapy startproject projectname
        默认是没有模板的,还需要自己命令创建
    目录树:(main是后来自己建的)

    Scrapy基础(二)————Scrapy的安装和目录结构

创建爬虫模板:

好比在Django中创建一个APP,在次创建一个爬虫
    命令:
        #注意:必须在该工程目录下
        #创建一个名字为blogbole,爬取root地址为blog.jobbole.com 的爬虫;爬伯乐在线
        scrapy genspider jobbole  blog.jobbole.com

 创建的文件:
# -*- coding: utf-8 -*-
import scrapy class JobboleSpider(scrapy.Spider):
#爬虫名字
name = "jobbole"
#运行爬取的域名
allowed_domains = ["blog.jobbole.com"]
#开始爬取的URL
start_urls = ['http://blog.jobbole.com'] #爬取函数
def parse(self, response):
#xpath 解析response内容,提取数据
#//*[@id="post-110769"]/div[1]/h1
re_selector = response.xpath('//*[@id="post-110769"]/div[1]/h1/text()')
re2_selector = response.xpath('/html/body/div[3]/div[1]/h1/text()')
re3_selector = response.xpath('//div[@class="entry-header"]/h1/text()') pass

至此,一个爬虫工程建立完毕;

上一篇:25G SFP28 通信模块称为数据通信主流光模块


下一篇:Azure Event Hub 技术研究系列2-发送事件到Event Hub