python爬虫

python爬虫-爬抖音视频

提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加
案例1-爬抖音视频


提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档


提示:以下是本篇文章正文内容,下面案例可供参考

一、必要库安装

request
selenium
beautfulsoup4

pip install selenium
pip install beautifulsoup4
pip install request

安装selenium需要特殊注意,selenium支持Chrome、Firefox、Edge浏览器,库安装成功后还需安装相应浏览器的驱动,请确保选择与你的浏览器版本相匹配的驱动版本(版本不对应将会报错,selenium.common.exceptions.SessionNotCreatedException)。并将下载的驱动的可执行文件放在系统环境变量中,或者在代码中指定其路径。

# 指定EdgeDriver的路径  
driver_path = "path/to/msedgedriver.exe"
driver = webdriver.Edge(executable_path=driver_path)

驱动下载地址:
Chrome: ChromeDriver
Firefox: GeckoDriver
Edge: EdgeDriver (msedgedriver)
运行以下代码不报错则证明下载的版本正确并成功将驱动的路径加入到系统环境变量中。

from selenium import webdriver
browser = webdriver.Edge()
# 如果运行报错,请检查浏览器驱动是否在环境变量中
browser.get('https://www.baidu.com/')

二、分析过程

源代码分析

打开开发者工具(鼠标右键,点击检查),浏览器中输入抖音网址,在Elements菜单栏下可以看到网页源代码,按图中标注1、2步骤点击将会定位到video标签。

在这里插入图片描述
接下来研究一下source标签下src属性值,我将这个网址直接复制到浏览器进行访问,直接就返回了视频资源,这个就是我们要请求的资源了,同样的方法分析了这个视频集合下的其他视频发现有类似的结构,“?a=”前的这串代码不同,看起来就是视频ID,去掉“?a=”之后同样能获取视频资源。
在这里插入图片描述

获取视频地址以及名称

登录抖音之后,会有提示登录的页面,点击关闭之后,点击键盘上下键可以切换视频,如果观看的是某个合集,点击键盘向下键可以顺序播放,于是使用selenium模拟登录,共有两个步骤,一个是第一次访问时点击关闭登录页面,复制元素的xpath.
在这里插入图片描述
一个是按下向下键切换视频.
代码如下:

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.action_chains import ActionChains
from selenium.webdriver.common.keys import Keys

browser = webdriver.Edge()
url = ''
browser.get(url)
# 点击登录页面关闭按钮,以xpath方式获取元素
browser.find_element(By.XPATH,'/html/body/div[4]/div/div/div/div[2]').click()

actions = ActionChains(browser)
actions.send_keys(Keys.DOWN).perform()

解析代码获取信息

在这里插入图片描述

在这里插入图片描述

soup = BeautifulSoup(browser.page_source, 'html.parser')
# 获取网址
video_info = soup.find('div', class_='O8onIiBq slider-video')
if video_info:
    sources = video_info.find_all('source')
    src_value = sources[1].get('src')
    # 截取网址中'?a='之前的部分
    targetUrl = src_value.split('?a=')[0]
# 获取标题
title_info = soup.find('div', class_='video info detail')
if title_info:
    tags_spans = title_info.find_all('span')
    # 有多个span标签
    fullTitle = [tag.text.strip() for tag in tags_spans]
    targetName = fullTitle[0].strip()

request 请求视频网址保存到本地

获取伪装请求头参数的方法
在这里插入图片描述
python 代码

# 填入cookie和userAgent
headers = {'Cookie':'',
           'User-Agent':''
}

newUrl = 'https:'+targetUrl 
newName = targetName+'.mp4'
reponses = requests.get(newUrl, headers=headers)

with open(newName, 'wb') as f:
    f.write(reponses.content)

到这下载视频基本就能实现了,代码细节再慢慢完善。


### Python爬虫的学习资源与使用方法 Python爬虫是一种高效的工具,用于自动化的网络信息采集。由于其丰富的库支持以及简洁易懂的语法特性,Python 成为了编写网络爬虫的最佳选择之一[^3]。 #### 学习Python爬虫的基础知识 学习Python爬虫不仅涉及理论知识的理解,还需要通过实际操作来加深印象。在移动设备上也可以轻松完成这些任务,因为手机端的Python环境配置较为简便,可以随时随地进行实践练习[^1]。 #### 推荐的Python爬虫教程列表 以下是几份高质量的Python爬虫教程推荐: - **基础篇** - 《一只小爬虫》[^2] - 《Python与简单网络爬虫的编写》[^2] - **进阶篇** - 《[Python]网络爬虫(五):urllib2的使用细节与抓站技巧》[^2] - 《[Python]网络爬虫(十):一个爬虫的诞生全过程(以山东大学绩点运算为例)》[^2] - **高级功能** - 《Python爬虫——抓取网页并解析HTML》[^2] - 《Python正则表达式指南》[^2] 除了上述具体的文章外,《Python爬虫新手指南及简单实战》也是一份非常适合初学者的内容,其中包含了详细的案例分析和代码演示[^3]。 #### 实践中的关键技术点 当开始构建自己的第一个爬虫项目时,需要注意以下几个方面: 1. 数据请求模块的选择,比如`requests`或内置的`urllib`。 2. HTML页面解析技术的应用,例如BeautifulSoup或者lxml库。 3. 对于复杂的数据提取需求,则可能需要用到正则表达式的辅助[^2]。 下面展示一段简单的爬虫脚本作为参考: ```python import requests from bs4 import BeautifulSoup url = 'https://example.com' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') titles = soup.find_all('h1') for title in titles: print(title.text.strip()) ``` 此段程序展示了如何访问目标网址,并从中提取所有的标题标签内容[^3]。 #### 工具扩展建议 如果计划进一步深入研究大数据量场景下的爬虫应用,那么像Pandas这样的数据分析框架将会非常有用。它可以方便地管理和转换所收集到的信息至结构化形式以便后续统计分析工作[^4]。 --- 相关问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值