文章目录
前言
本篇文章主要介绍使用bs4解析来爬取某网站上的唯美高清大图,涉及到的零碎知识较多,详细易懂,适合新手小白爬虫入门。
思路如下:
①拿到主页面的源代码,然后提取到子页面的链接地址href;
②通过href进入子页面,从子页面源代码中找到图片的下载地址,img ->src;
③下载图片;
下面通过代码讲解具体做法:
import requests
from bs4 import BeautifulSoup
import time
url="https://www.umei.cc/bizhitupian/weimeibizhi/"
resp=requests.get(url)
resp.encoding='utf-8' #处理中文乱码。这里的内容需要与源代码中charset的值保持一致。
#把源码交给bs解析
main_page=BeautifulSoup(resp.text,"html.parser") #指定html解析器
#使用find()在源代码中找到div,其属性为class且其属性值为TypeList的代码段,返回一个列表;
#在这个列表中找所有的a标签
alist=main_page.find("div",class_="TypeList").find_all("a")
#print(alist) #拿到定位到此区域下面的所有内容
for a in alist:
href=a.get("href") #直接通过get就可以拿到属性的值
#print(href) #拿到每个子页面后面一截链接
child_href="https://www.umei.cc"+href #通过字符串拼接,得到子页面链接
print(child_href)
#拿到子页面的源码
child_page_resp=requests.get(child_href)
child_page_resp.encoding='utf-8'
child_page_text=child_page_resp.text
#从子页面中拿到图片的下载路径
child_page=BeautifulSoup(child_page_text,"html.parser")
p=child_page.find("p",align="center")
img=p.find("img")
#下载图片
src=img.get("src")
img_resp=requests.get(src)
#img_resp.content #这里拿到的是字节
img_name=src.split("/")[-1] #拿到url中的最后一个/以后的内容
with open(img_name,"wb") as f:
f.write(img_resp.content) #将图片内容写入文件
print("over!!",img_name)
time.sleep(1)
print("all over!!!")
官网首页
右键,拿到源页面代码,找到<div class="TypeList"的位置,下方即为我们要找的每个子页面的链接地址,这个地址即为a标签中href的值(后期需要拼接)
进入其中任意一个子页面,如姜子牙
相同方式打开此页面的源代码,可以利用选中的这部分文字定位图片的链接(举的栗子是姜子牙,其他同理)
注意:find()找到一个就返回,而findall()是找所有。
得到的列表利用循环对其中的每一个子部分进行相同的操作,然后输出。
得到的链接并不是子页面的链接地址,还需要进行字符串的拼接,拼接成真正的子页面的链接。