爬虫——scrapy框架核心组件流程

本文详细介绍了Scrapy框架的爬虫流程。引擎检测起始URL列表并发起请求,Spiders将请求经引擎交调度器,调度器处理后经引擎和中间件交下载器,下载器获取响应再经引擎和中间件交Spiders,Spiders处理响应提取数据保存,提取的URL再循环处理,无请求时程序结束。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述
流程:

  • 引擎检测起始列表的url,调用start_request方法对列表里的url发起请求
    start_urls = [‘https://www.qiushibaike.com/text/’]
  • Spiders(爬虫)将需要发送请求的url(requests)经ScrapyEngine(引擎)交给Scheduler(调度器)。
  • Scheduler(排序,入队)处理后,经ScrapyEngine,DownloaderMiddlewares(可选,主要有User_Agent,
    Proxy代理)交给Downloader。
  • Downloader向互联网发送请求,并接收下载响应(response)。将响应(response)经ScrapyEngine,SpiderMiddlewares(可选)交给Spiders。
  • Spiders处理response,提取数据并将数据经ScrapyEngine交给ItemPipeline保存(可以是本地,可以是数据库)。
  • 提取url重新经ScrapyEngine交给Scheduler进行下一个循环。直到无Url请求程序停止结束。

https://blog.csdn.net/miner_zhu/article/details/81094077

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值