博问上到有人问的,后自己帮他代码修正了一下,其实蛮简单的一个爬虫
代码以及思路
from requests_html import HTMLSession
session = HTMLSession() #定义一个session对象,和reuqests模块中的session是一样的
def get_movie():
movie_list=[]
for i in range(0, 10): #前250名
print(f'{i+1}页')
link = f'https://movie.douban.com/top250?start={i*25}' #这里呢稍微点几页你就知道规律了
print(link)
response = session.get(link) #这里很多人都有误区总是喜欢加User-Agen,个人感觉他反爬的时候用到这个再加,人家都没设这方面的反爬加了也没啥意义
div_list = response.html.find('.info') #你也可以获取info类下的电影信息
for each in div_list:
movie = each.text #获取里面所有字符串
movie_list.append(movie) #加列表你可以存数据库,这随意
return movie_list
if __name__ == '__main__':
print(get_movie())