Python第十四次知识点学习---爬网页

目录

一、爬搜狗首页的源码

爬搜狗首页的源码

import requests
from bs4 import BeautifulSoup

resp = requests.get('https://123.sogou.com/')#请求搜狗首页
header = {"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"}
print(resp)#打印请求结果的状态码
print(resp.content)#打印请求到的网页源码
bsobj = BeautifulSoup(resp.content,'lxml')#将网页源码构造成BeautifulSoup对象,方便操作
a_list = bsobj.find_all('a')#获取网页中所有a标签对象
for a in a_list:
    print(a.get('href'))#获取a标签对象的href属性,那这个对象指向的链接地址

二、简单保存搜狗首页数据

简单保存搜狗首页数据

import requests
from bs4 import BeautifulSoup

resp = requests.get('https://123.sogou.com/')#请求搜狗首页
header = {"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"}
print(resp)#打印请求结果的状态码
print(resp.content)#打印请求到的网页源码

bsobj = BeautifulSoup(resp.content,'lxml')#将网页源码构造成BeautifulSoup对象,方便操作
a_list = bsobj.find_all('a')#获取网页中所有a标签对象
text = ' '#创建一个空字符串
for a in a_list:
    href = a.get('href')#获取a标签对象的href属性,那这个对象指向的链接地址
    text += href+'\n'#加入到字符串中,并换行
with open('url.txt','w') as f:#在当前路径下,以写的方式打开一个名为‘url.txt’,如果不存在则创建
    f.write(text)#将text里的数据写入文本中

运行后会出现一个url.txt文件,数据就在里面。

上一篇:Python爬虫入门-BeautifulSoup+lxml


下一篇:request + beautifulsoup + openpyxl + 使用