原因想用celery执行一些爬虫的后续操作,不占用爬虫爬取的时间.尝试了不同的方法感觉supervisor最靠谱,这也是celery官方推荐的做法.
做法:
1 安装 supervisor
pip install supervisor
2 进入项目文件夹,创建 conf 文件
cd project
echo_supervisord_conf> supervisord.conf
结果如下所示
3 编辑conf文件
使用项目的路径:
4 执行命令
supervisord
2024-02-10 17:13:22
pip install supervisor
cd project
echo_supervisord_conf> supervisord.conf
supervisord