# 步骤
# 指定url
# 发起请求
# 获取响应数据
# 持久化存储,存响应数据
# 爬取搜狗首页的页面数据
import requests
if __name__ == "__main__":
#step1
url = 'https://www.sogou.com/'
#step2
#get方法返回一个响应对象
response = requests.get(url=url)
#step3
#text返回的是字符串形式的相应数据
page_text = response.text
print(page_text)
#step4
with open('./sogou.html' , 'w' , encoding='utf-8') as fp:#存到html文件里
fp.write(page_text)
print('爬取数据结束!!!')
相关文章
- 11-27python 爬虫 网站的历史数据的爬取案例 API请求历史数据
- 11-27python爬虫:2.每天爬取数据量是多少?
- 11-27Python爬虫实战(二):爬百度贴吧
- 11-27九 web爬虫讲解2—urllib库爬虫—实战爬取搜狗微信公众号—抓包软件安装Fiddler4讲解
- 11-27Python爬虫开源项目代码,爬取微信、淘宝、豆瓣、知乎、新浪微博、QQ、去哪网等 代码整理
- 11-27如何利用Python网络爬虫爬取微信朋友圈动态--附代码(下)
- 11-27python爬虫多进程,多线程,协程以及组合应用的效率对比--以爬取小说全文为例
- 11-2723个Python爬虫开源项目代码:爬取微信、淘宝、豆瓣、知乎、微博等
- 11-27Python 爬虫爬取微信文章
- 11-27python爬搜狗微信获取指定微信公众号的文章