目标:用python写一个自动访问网页的东西。
Python果然是够强大,参考网上一个智普啥的python视频培训,自己又完善了下。要让python打开浏览器,并访问指定网址,很简单只需下面两句话:
import webbrowser as web
web.open_new_tab(‘www.baidu.com‘)
如果你想访问一定次数或者一直访问,那就加个while True。下面给出完整程序,然后再解释:
#coding=utf-8 import webbrowser as web import time import os import random M = random.randint(10,15) print ‘随机数 = ‘, M N = 10 j = 0 while j < M: i = 0 while i < N: web.open_new_tab(‘http://blog.sina.com.cn/s/blog_723395a70101josb.html‘) i = i + 1 time.sleep(1.5) else: os.system(‘taskkill /F /IM baidubrowser.exe‘) j = j + 1 else: print ‘本次python总共打开了‘, M * N, ‘次‘ o=‘c:\\windows\\system32\\shutdown -s ‘ os.system(o)
1、开头是设置编码,支持python打印中文;
2、random.randint(10,15)是生成一个10到15之间的随机数,在这里可以控制访问次数。然后里面又嵌套了一个while,所以最终的访问次数是M*N次;
3、每N次,这里N=10,打开10个浏览器页面后,就要通过taskkill /F /IM baidubrowser.exe命令,杀死浏览器进程。如果是其他浏览器,可以再任务管理器里查看浏览器的进程。通过os.system让windows来执行。如果在linux下要换成kill命令。为啥要每10次就关下浏览器呢?因为如果打开太多,占用资源太多,电脑会挂掉。所以每隔10次关下浏览器。每次打开后,让它休眠一定时间,如果中间不留时间,浏览器还没请求到数据就关了。
4、最后如果刷完了,想要自动关机的话通过shutdown -s命令来实现,方便python半夜执行完任务后自动将浏览器关闭。
来个截图吧:
总结:严格意义上,这个不能算是python的爬虫,仅仅是通过一个命令自动打开浏览器,真正解析网址的内容还是浏览器,并非是python写的代码。不过从这个例子中足见python在网络方面的强大。下次贡献一个真正的爬虫。
声明:本例旨在演示python的强大和实用,切勿用于不良目的!!!(话说过来了,现在很多网站博客都有反爬虫.)