python爬虫(一) 爬取北京短租房信息

文章目录

所需库

requests库

requests模块在python内置模块的基础上进行了高度的封装,从而使得python进行网络请求时,变得更加简洁和人性化。
详看request库具体用法

BeautifulSoup库

Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据
它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码
详看:BeautifulSoup库具体用法

补充所需知识

1.请求头:headers
2.python的os库
3.python的time库

from bs4 import BeautifulSoup  # 主要用来解析 html 标签
import requests  # 请求网页获取数据的库
import time  # python中处理时间的标准库
import os
headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                         'Chrome/79.0.3945.130 Safari/537.36'}
global x  #必须声明两处的全局
x=0
jpg_dir="jpg_cxk/"
if not os.path.exists(jpg_dir):#如果没有这个文件夹 就新建文件夹
    os.mkdir(jpg_dir)

def judgment_sex(class_name):  # 判断性别
    if class_name == ['member_ico']:
        return '男'
    else:
        return '女'


def get_link(url):
    web_data = requests.get(url, headers=headers)
    soup = BeautifulSoup(web_data.text, 'lxml')
    links = soup.select('#page_list >  ul > li > a')  # links为URL列表  搞清楚你要爬的东西,是进入页面的URL链接
    # print(links)
    for link in links:  # link不用赋值
        href = link.get("href")  # href只能get参数
        get_info(href)  # 循环出的URL,依次调用get_info()函数


# 需要爬取的信息有:标题,地址,价格,房东名称,房东性别,和房东头像
def get_info(url):
    global x  #必须声明两处的全局
    wb_data = requests.get(url, headers=headers)
    soup = BeautifulSoup(wb_data.text, 'lxml')  # BeautifulSoup可以轻松地解析request库请求的网页 ‘lxml'速度快,容错率强
    tittles = soup.select('div.pho_info > h4 ')  # 括号内为标签 标题
    # print(tittles)
    addresses = soup.select(' span.pr5')  # 地址
    print(addresses)
    prices = soup.select('#pricePart > div.day_l > span')  # 价格   标签信息一定要写对
    imgs = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > a > img')  # 图片
    names = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > h6 > a')
    # print(prices) 结果表明的确得到了价格
    sexs = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > div')
    for img in imgs:
        try:
            cxk = img.get('src')  # 图片地址
            print('正在下载:%s' % cxk)
            # image = urlopen(attr)
            ir = requests.get(cxk)
            open(jpg_dir + '%d.jpeg' %x, 'wb').write(ir.content)  # 打开并写入
            x += 1
        except:
            continue
    for tittle, address, price, img, name, sex in zip(tittles, addresses, prices, imgs, names, sexs):
        data = {
            'tittle': tittle.get_text().strip(),  # 通过get_text()获取标签信息
            'address': address.get_text().strip(),
            'price': price.get_text(),
            'img': img.get("src"),
            'name': name.get_text(),
            'sex': judgment_sex(sex.get("class"))

        }
        print(data)


if __name__ == '__main__':

    urls = ['http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(number) for
            number in range(1, 14)]
    for single_url in urls:
        get_link(single_url)  # 循环调用get_link()函数
        time.sleep(5)  # 睡眠两秒

python爬虫(一) 爬取北京短租房信息python爬虫(一) 爬取北京短租房信息 eithre up or down 发布了21 篇原创文章 · 获赞 17 · 访问量 4165 私信 关注
上一篇:centos 5 安装oracle 10g


下一篇:Python 中beautifulsoup乱码(实际上是requests返回结果乱码)