python爬虫页面按钮未加载报错selenium.common.exceptions.NoSuchElementException问题解决

本文讲述了在使用Python爬虫时遇到selenium.common.exceptions.NoSuchElementException错误的原因和解决方法。问题出现在页面的下载按钮因任务未完全生成而不可点击。作者尝试了显示等待、匹配不同的By参数以及自定义函数刷新页面等方法,最终通过在点击刷新后加入延迟解决了问题。文章强调了爬虫中考虑页面加载的重要性,并表达了通过解决问题提升技能和分享经验的愿望。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

python爬虫页面按钮未加载报错selenium.common.exceptions.NoSuchElementException问题解决
  • 前言

在爬取公司内部网站数据时,是通过先生成下载任务,再切换至下载界面,点击下载按钮下载数据,简单来说,只是模拟人对浏览器的点击动作,进而将重复性工作自动化

  • 道路坎坷,bug出现

昨天终于成功将爬取的数据插入数据库,并且在今天早上刚上班之际,发现昨天下班前还在执行的爬虫脚本完美的运行完毕,瞬间沾沾自喜,心想:“不错不错,总算可以稳定爬取数据了”,可当我喜滋滋的运行今天的爬虫后没多久,就被泼了盆冷水,没错,程序报错了,报的就是标题提到的错误:

selenium.common.exceptions.NoSuchElementException

打开浏览器,瞬间发现是由于下载数据的【下载】按钮不可按导致的,之前考虑到过导出任务生成,到任务加载完毕,需要时间缓冲,就简单粗暴的time.sleep(60)等待60秒后再切换到下载界面,结果系统卡着的时候60秒任务仍未生成完毕,切换到下载界面时下载按钮仍然为灰色,不可点击,所以报错。
在这里插入图片描述
下载按钮未灰色不可点击

  • 解决思路及过程
    前期在编写整体爬虫时曾遇到过此类问题,当时百度到用的是显示等待
element = WebDriverWait(self.driver, 10).until(
                EC.element
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值