项目1:搜狗知乎,爬取指定存储上一级目录的名字,以及存储爬取的页码
#爬取前三页数据 import requests import os file_name=input('请输入一个文件名:') #创建一个文件夹 if not os.path.exists(f'./{file_name}'): os.mkdir(f'./{file_name}') word=input('enter a search word:') #动态指定页码的范围 start_pageNum=int(input('enter a start pageNum')) end_pageNum=int(input('enter a end pageNum')) #自定义请求头信息 headers={ 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36' } url='https://www.sogou.com/sogou' for page in range(start_pageNum,end_pageNum+1): params={ 'query':word, 'page':page, 'ie':'utf-8', 'insite':'zhihu.com' } response=requests.get(url=url,params=params,headers=headers) #获取响应中的页面数据(指定页码(page)) page_text=response.text #进行持久化存储 fileName=word+str(page)+'.html' filePath=f'./{file_name}/'+fileName with open(filePath,'w',encoding='utf-8')as fp: fp.write(page_text) print('第%d页数据写入成功'%page)
项目2: