selenium和chromedriver做爬虫时脚本把内存用完最后卡死的解决办法

在使用Selenium和ChromeDriver进行自动化爬虫时,遇到浏览器进程不断增多导致脚本卡死的问题。通过尝试多种解决方案,发现刷新页面(driver.refresh())是最有效的方法,能避免内存消耗过大,保持脚本长时间稳定运行。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

selenium和chromedriver做自动化爬虫的时候,如果你用到循环就恢复发现chromedriver.exe和浏览器进程越来越多,最后卡死,脚本停止运行。我每隔20分钟就要把脚本终止,然后再开始运行,只能达到“半自动”的效果。
我网上找了很多办法,有的用到JS,有的用kill去杀掉进程。最后发现有个最有效的办法就是调用refresh刷新一下即可,进程会自动消掉,内存也不会被吃完。脚本可以一直运行到天荒地老。

    # 刷新页面,减少缓存
    driver.refresh()
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值