爬虫集群部署:Scrapyd 框架深度解析
🕵️♂️ 爬虫集群部署:Scrapyd 框架深度解析
🛠️ Scrapyd 环境部署
Scrapyd 是一个开源的 Python 爬虫框架,专为分布式爬虫设计。它允许用户在集群中调度和管理爬虫任务,并提供了简洁的 API 进行控制。以下是 Scrapyd 环境部署的详细步骤。
环境部署:
-
安装 Scrapyd:
首先,需要安装 Scrapyd。可以通过 pip 安装:pip install scrapyd -
启动 Scrapyd 服务:
安装完成后,可以通过以下命令启动 Scrapyd 服务:scrapyd默认情况下,Scrapyd 服务会在
http://localhost:6800启动。可以在浏览器中访问这个地址,检查服务是否正常运行。 -
配置 Scrapyd:
Scrapyd 的配置文件scrapyd.conf位于/etc/scrapyd/scrapyd.conf,可以根据需要进行配置。以下是一个基本的配置示例:[scrapyd] bind_address = 0.0.0.0 http_port = 6800在配置文件中,可以设置 Scrapyd 的绑定地址和端口。
-
项目上传:
要将爬虫项目上传到 Scrapyd,可以使用scrapyd-client工具。首先安装scrapyd-client:pip install scrapyd-client然后使用以下命令将项目上传到 Scrapyd:
scrapyd-client deploy这会将项目上传到 Scrapyd 服务中,以便进行任务调度和管理。
示例代码:
# 启动 Scrapyd 服务
scrapyd# 上传项目
scrapyd-client deploy
在这个示例中,启动 Scrapyd 服务并上传爬虫项目。
🧠 Scrapyd 原理讲解
Scrapyd 是一个基于 Python 的爬虫调度系统,它的核心是任务调度和爬虫管理。以下是 Scrapyd 原理的详细讲解。
Scrapyd 原理:
-
任务调度:
Scrapyd 使用队列机制调度爬虫任务。用户提交的任务被放入任务队列中,Scrapyd 根据队列的任务安排爬虫的执行顺序。每个任务都包含了爬虫名称、起始 URL 和其他参数。 -
爬虫管理:
Scrapyd 提供了 API 进行爬虫的管理,包括启动、停止和查询爬虫状态。爬虫在运行时,Scrapyd 会记录爬虫的运行日志和结果,并提供 API 进行访问。 -
数据存储:
爬虫抓取的数据可以存储在本地文件系统或数据库中。Scrapyd 支持将爬虫结果存储到指定的文件夹中,并提供了 API 进行数据的访问和下载。 -
分布式支持:
Scrapyd 可以与多个爬虫实例协同工作,实现分布式爬取。通过将任务分配到不同的实例,Scrapyd 实现了负载均衡和高可用性。
示例代码:
# 启动 Scrapyd 服务
import requestsdef start_spider(spider_name):url = 'http://localhost:6800/schedule.json'data = {'project': 'myproject','spider': spider_name}response = requests.post(url, data=data)return response.json()print(start_spider('my_spider'))
在这个示例中,start_spider 函数通过调用 Scrapyd 的 API 启动一个爬虫任务。
🔄 Scrapyd API 处理爬虫
Scrapyd 提供了一组 RESTful API,用于控制和管理爬虫任务。以下是 Scrapyd API 的详细处理方法。
Scrapyd API:
-
启动爬虫:
使用schedule.jsonAPI 启动爬虫任务。请求参数包括项目名称、爬虫名称和其他参数。import requestsdef schedule_spider(project, spider):url = 'http://localhost:6800/schedule.json'data = {'project': project,'spider': spider}response = requests.post(url, data=data)return response.json() -
查询任务状态:
使用list_jobs.jsonAPI 查询当前的任务状态。可以获取到任务的运行状态、开始时间和结束时间等信息。def list_jobs(project):url = f'http://localhost:6800/list_jobs.json?project={project}'response = requests.get(url)return response.json() -
停止任务:
使用cancel.jsonAPI 停止正在运行的任务。需要提供任务 ID 作为参数。def cancel_task(job_id):url = f'http://localhost:6800/cancel.json'data = {'jobid': job_id}response = requests.post(url, data=data)return response.json()
示例代码:
import requestsdef start_spider(spider_name):url = 'http://localhost:6800/schedule.json'data = {'project': 'myproject','spider': spider_name}response = requests.post(url, data=data)return response.json()def list_jobs(project):url = f'http://localhost:6800/list_jobs.json?project={project}'response = requests.get(url)return response.json()def cancel_task(job_id):url = f'http://localhost:6800/cancel.json'data = {'jobid': job_id}response = requests.post(url, data=data)return response.json()print(start_spider('my_spider'))
print(list_jobs('myproject'))
print(cancel_task('job_id'))
在这个示例中,提供了启动爬虫、查询任务状态和停止任务的 API 调用方法。
📅 Scrapyd 多任务管理
Scrapyd 支持管理和调度多个爬虫任务。通过配置和 API 调用,可以实现对多个任务的管理,包括启动、停止和监控任务。
多任务管理:
-
任务调度:
可以使用 Scrapyd 的调度 API 启动多个爬虫任务。每个任务可以设置不同的参数和调度策略。 -
任务监控:
使用 Scrapyd 的 API 查询任务状态,获取任务的进度和日志信息。可以通过定期检查任务状态来实现监控。 -
任务停止:
使用 Scrapyd 的停止 API 停止指定的任务。可以根据需要停止单个任务或批量任务。
示例代码:
import requests
import timedef start_multiple_spiders(spiders):for spider in spiders:response = start_spider(spider)print(f'Started {spider}: {response}')def monitor_jobs(project):while True:jobs = list_jobs(project)for job in jobs.get('running', []):print(f'Job ID: {job["id"]}, Status: {job["status"]}')time.sleep(60)def stop_jobs(job_ids):for job_id in job_ids:response = cancel_task(job_id)print(f'Cancelled Job ID {job_id}: {response}')spiders = ['spider1', 'spider2']
start_multiple_spiders(spiders)
monitor_jobs('myproject')
stop_jobs(['job_id1', 'job_id2'])
在这个示例中,start_multiple_spiders 启动多个爬虫任务,monitor_jobs 定期监控任务状态,stop_jobs 停止指定的任务。
⏰ 拓展:定时任务机制
定时任务机制是指在特定的时间点或周期内自动触发任务。Scrapyd 本身不直接支持定时任务,但可以通过与外部工具结合使用实现定时调度。
实现定时任务:
-
使用 Cron 任务调度:
在 Unix 系统中,可以使用 Cron 任务调度工具来实现定时执行任务。可以设置定时任务来调用 Scrapyd 的 API 启动爬虫。# 编辑 Cron 配置 crontab -e# 添加定时任务 0 2 * * * /usr/bin/curl -X POST http://localhost:6800/schedule.json -d project=myproject -d spider=my_spider这个例子中,Cron 将在每天凌晨 2 点触发爬虫任务。
-
使用任务调度框架:
可以使用 Python 的任务调度框架(如APScheduler)来实现定时任务调度。通过编
写 Python 脚本来定期触发 Scrapyd API。
```python
from apscheduler.schedulers.blocking import BlockingScheduler
import requestsscheduler = BlockingScheduler()def trigger_spider():url = 'http://localhost:6800/schedule.json'data = {'project': 'myproject','spider': 'my_spider'}response = requests.post(url, data=data)print(response.json())scheduler.add_job(trigger_spider, 'interval', hours=1)
scheduler.start()
```
在这个例子中,APScheduler 每小时触发一次 trigger_spider 函数,调用 Scrapyd API 启动爬虫。
-
使用任务队列:
可以使用任务队列(如 Celery)实现分布式定时任务。通过将定时任务的调度逻辑放入 Celery 任务中,控制任务的执行。from celery import Celery import requestsapp = Celery('tasks', broker='redis://localhost:6379/0')@app.task def trigger_spider():url = 'http://localhost:6800/schedule.json'data = {'project': 'myproject','spider': 'my_spider'}response = requests.post(url, data=data)print(response.json())# 定时任务调度 app.conf.beat_schedule = {'trigger-spider-every-hour': {'task': 'tasks.trigger_spider','schedule': 3600.0,}, }在这个例子中,Celery 定时触发
trigger_spider任务,每小时执行一次。
通过以上内容,你可以深入了解 Scrapyd 的环境部署、原理讲解、API 处理、多任务管理以及定时任务机制。这些知识将帮助你更好地构建和管理爬虫集群,优化爬虫调度和任务管理。
相关文章:
爬虫集群部署:Scrapyd 框架深度解析
🕵️♂️ 爬虫集群部署:Scrapyd 框架深度解析 🛠️ Scrapyd 环境部署 Scrapyd 是一个开源的 Python 爬虫框架,专为分布式爬虫设计。它允许用户在集群中调度和管理爬虫任务,并提供了简洁的 API 进行控制。以下是 Scr…...
pytorch GPU操作事例
>>> import torch >>> if_cuda torch.cuda.is_available() >>> print("if_cuda",if_cuda) if_cuda True >>> gpu_count torch.cuda.device_count() >>> print("gpu_count",gpu_count) gpu_count 8...
linux常见性能监控工具
常用命令top、free 、vmsata、iostat 、sar命令 具体更详细命令可以查看手册,这里只是简述方便找工具 整体性能top,内存看free,磁盘cpu内存历史数据可以vmsata、iostat 、sar、iotop top命令 交互:按P按照CPU排序,按M按照内存…...
C++ | Leetcode C++题解之第331题验证二叉树的前序序列化
题目: 题解: class Solution { public:bool isValidSerialization(string preorder) {int n preorder.length();int i 0;int slots 1;while (i < n) {if (slots 0) {return false;}if (preorder[i] ,) {i;} else if (preorder[i] #){slots--;i…...
【多模态处理】利用GPT逐一读取本地图片并生成描述并保存,支持崩溃后从最新进度恢复
【多模态处理】利用GPT逐一读取本地图片并生成描述,支持崩溃后从最新进度恢复题 代码功能:核心功能最后碎碎念 代码(使用中转平台url):代码(直接使用openai的key) 注意 代码功能: 读…...
【rk3588】获取相机画面
需求:获取相机画面,并在连接HDMI线,在显示器上显示 查找设备 v4l2-ctl --list-devices H65 USB CAMERA: H65 USB CAMERA (usb-0000:00:14.0-1):/dev/video2/dev/video3播放视频 gst-launch-1.0 v4l2src device/dev/video22 ! video/x-ra…...
数据结构的基本概念
数据结构的基本概念 数据是什么? 数据 : 数据是信息的载体,是描述客观事物属性的数、字符及所有能输入到计算机中并被计算机程序识别(二进制0|1)和处理的符号的集合。数据是计算机程序加工的原料。 早期计算机处理的…...
AI人工智能机器学习
AI人工智能 机器学习的类型(ML) 学习意味着通过学习或经验获得知识或技能。 基于此,我们可以定义机器学习(ML) 它被定义为计算机科学领域,更具体地说是人工智能的应用,它提供计算机系统学习数据和改进经验而不被明确编程的能力。 基本上&…...
试用AWS全新神器:Amazon Bedrock的「Open Artifacts」版Claude.ai Artifacts
Claude.ai的Artifacts真是太方便了。 GitHub上的AWS Samples仓库中有一个仿制Artifacts的应用程序。 Open Artifacts for Amazon Bedrock https://github.com/aws-samples/open_artifacts_for_bedrockhttps://github.com/aws-samples/open_artifacts_for_bedrock本文将介绍「…...
W3C XML 活动
关于W3C的XML活动,XML(可扩展标记语言)是一种用于描述、存储、传送及交换数据的标准。W3C(万维网联盟)对XML的发展起到了关键作用,推出了一系列的版本和相关的技术规范。 XML版本历史: XML 1.0&…...
vue请求springboot接口下载zip文件
说明 其实只需要按照普通文件流下载即可,以下是一个例子,仅供参考。 springboot接口 RestController RequestMapping("/api/files") public class FileController {GetMapping("/download")public ResponseEntity<Resource>…...
PySide6||QPushButton的QSS样式
1、狗狗拜按钮 QQ202484-03338 (online-video-cutter.com) /* QPushButton的基本样式 */ QPushButton { background-image:url(:/xxx/第1帧.png); /* 设置背景图片 */ background-repeat: no-repeat; /* 不重复背景图片 */ background-position: center; /* 将背景图片居中…...
HarmonyOS鸿蒙应用开发之ArkTS基本语法
ArkTS(Ark TypeScript)是一种基于TypeScript的扩展语言,专为鸿蒙应用开发设计。它在保持TypeScript基本语法风格的基础上,对TypeScript的动态类型特性施加了更严格的约束,并引入了静态类型,以减少运行时开销…...
Web开发-CSS篇-上
CSS的发展历史 CSS(层叠样式表)最初由万维网联盟(W3C)于1996年发布。CSS1是最早的版本,它为网页设计提供了基本的样式功能,如字体、颜色和间距。随着互联网的发展,CSS也不断演进: C…...
在mac上通过 MySQL 安装包安装 MySQL 之后,终端执行 mysql 命令报错 command not found: mysql
在 mac 上通过 MySQL 安装包安装 MySQL 之后,如果在终端中运行 mysql 命令时遇到 command not found: mysql 错误,通常是因为 MySQL 的二进制文件没有被添加到系统的 PATH 环境变量中。 解决方法:手动添加 MySQL 到 PATH 环境变量 1.找到 M…...
Unity入门4——常用接口
C#中常用类和接口 DateTime:表示某个时刻 DateTime.Now:拿到系统当前时间DtaTime.TimeOfDay:获取此实例当天的时间 Quaternion:用来旋转,采用四元数,由w(实部)和x,y,z(虚…...
职业教育云计算实验实训室建设应用案例
云计算作为信息技术领域的一次革命,正在深刻改变着我们的工作和生活方式。随着企业对云计算技术的依赖日益加深,对具备云计算技能的专业人才的需求也日益迫切。职业院校面临着培养符合行业标准的云计算人才的挑战。唯众凭借其在教育技术领域的专业经验&a…...
MySQL-MHA高可用配置及故障切换
目录 案例搭建 1:所有服务器关闭防火墙 2:设置hosts文件 3:安装 MySQL 数据库 4:修改参数 5:安装 MHA 软件 6:配置无密码认证 7:配置 MHA 8:模拟 master 故障 MHA(MasterHi…...
Sentinel 滑动时间窗口源码分析
前言: Sentinel 的一个重要功能就是限流,对于限流来说有多种的限流算法,比如滑动时间窗口算法、漏桶算法、令牌桶算法等,Sentinel 对这几种算法都有具体的实现,如果我们对某一个资源设置了一个流控规则,并…...
猎码安卓APP开发IDE,amix STUDIO中文java,HTML5开发工具
【无爱也能发电】Xili 2024/8/2 10:41:20 猎码安卓APP开发IDE,amix java开发工具 我研发这些只有一小部分理由是为了赚钱,更多是想成就牛逼的技术产品。 目前的产品就够我赚钱的,我持续更新就好了,没必要继续研究。 IDE不赚钱,谁…...
wordpress后台更新后 前端没变化的解决方法
使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…...
Qwen3-Embedding-0.6B深度解析:多语言语义检索的轻量级利器
第一章 引言:语义表示的新时代挑战与Qwen3的破局之路 1.1 文本嵌入的核心价值与技术演进 在人工智能领域,文本嵌入技术如同连接自然语言与机器理解的“神经突触”——它将人类语言转化为计算机可计算的语义向量,支撑着搜索引擎、推荐系统、…...
第25节 Node.js 断言测试
Node.js的assert模块主要用于编写程序的单元测试时使用,通过断言可以提早发现和排查出错误。 稳定性: 5 - 锁定 这个模块可用于应用的单元测试,通过 require(assert) 可以使用这个模块。 assert.fail(actual, expected, message, operator) 使用参数…...
基于Java+MySQL实现(GUI)客户管理系统
客户资料管理系统的设计与实现 第一章 需求分析 1.1 需求总体介绍 本项目为了方便维护客户信息为了方便维护客户信息,对客户进行统一管理,可以把所有客户信息录入系统,进行维护和统计功能。可通过文件的方式保存相关录入数据,对…...
Java编程之桥接模式
定义 桥接模式(Bridge Pattern)属于结构型设计模式,它的核心意图是将抽象部分与实现部分分离,使它们可以独立地变化。这种模式通过组合关系来替代继承关系,从而降低了抽象和实现这两个可变维度之间的耦合度。 用例子…...
排序算法总结(C++)
目录 一、稳定性二、排序算法选择、冒泡、插入排序归并排序随机快速排序堆排序基数排序计数排序 三、总结 一、稳定性 排序算法的稳定性是指:同样大小的样本 **(同样大小的数据)**在排序之后不会改变原始的相对次序。 稳定性对基础类型对象…...
Kafka入门-生产者
生产者 生产者发送流程: 延迟时间为0ms时,也就意味着每当有数据就会直接发送 异步发送API 异步发送和同步发送的不同在于:异步发送不需要等待结果,同步发送必须等待结果才能进行下一步发送。 普通异步发送 首先导入所需的k…...
绕过 Xcode?使用 Appuploader和主流工具实现 iOS 上架自动化
iOS 应用的发布流程一直是开发链路中最“苹果味”的环节:强依赖 Xcode、必须使用 macOS、各种证书和描述文件配置……对很多跨平台开发者来说,这一套流程并不友好。 特别是当你的项目主要在 Windows 或 Linux 下开发(例如 Flutter、React Na…...
车载诊断架构 --- ZEVonUDS(J1979-3)简介第一篇
我是穿拖鞋的汉子,魔都中坚持长期主义的汽车电子工程师。 老规矩,分享一段喜欢的文字,避免自己成为高知识低文化的工程师: 做到欲望极简,了解自己的真实欲望,不受外在潮流的影响,不盲从,不跟风。把自己的精力全部用在自己。一是去掉多余,凡事找规律,基础是诚信;二是…...
数据库——redis
一、Redis 介绍 1. 概述 Redis(Remote Dictionary Server)是一个开源的、高性能的内存键值数据库系统,具有以下核心特点: 内存存储架构:数据主要存储在内存中,提供微秒级的读写响应 多数据结构支持&…...
