安装包
pip install scrapy
pip install scrapyd
pip install scrapyd-client
pip install spiderkeeper
进入到scrapy项目的根目录:
运行scrapyd
scrapyd
如果不出错就会生成一个scrapyd的服务。
打开对应页面
再另起窗口执行spiderkeeper命令
spiderkeeper
打开spiderkeeper的页面
默认用户名:admin
密码:admin
创建项目
点击Projects-》Create Project
打包egg文件
在scrapy的项目根目录,也就是和setting.py一个等级.
scrapyd-deploy -p chahao -v 1.0 --build-egg chahao.egg
-p后面加的是项目的名字,也就是scrapy爬虫文件的name,后面的内容可以不管,注意最后.egg的文件名规范就行。