Selenium+PhantomJS+python爬取网易云音乐的歌曲评论

爬取网易云音乐的歌曲评论


最开始接触爬虫是在17年的时候了,那时候都毕业两年了,醉心于linux啊,java等技术,没有具体写过爬虫,直到又一次项目需求,才用到了爬虫,当时用的jsoup,哈哈,就是简单的爬取静态网页,然后分析罢了。当时也想爬点有趣的东西,比如网易云音乐的评论··但是我太菜了,当时用java+PhantomJS 也没有成功,一年多以后终于成功了。但是当时没写博客,今天忽然想起那时候写的代码,找了一个小时,才找到,惊出一身冷汗。自己写的代码丢了实在太可怕,所以把核心代码记到这里吧。以作留念。
交代完故事的背景,交代下代码的背景。

  1. 代码python2.7版本的,考虑到PhantomJS已经不维护了,但是为了蹭热度还是怎样,选择了2.7
  2. 需要把PhantomJS放到path中
#!/usr/bin/env python2
# -*- coding: utf-8 -*-
"""
Created on Tue Oct 16 10:07:41 2018

@author: hepenghui
"""

#coding:utf-8

# =============================================================================
# 爬取网易云音乐单首歌曲的评论
# =============================================================================



import time
from selenium import webdriver
import sys
reload(sys) 
sys.setdefaultencoding('utf8')

def isNextPageExist(driver):
   """
       是否存在下一页按钮
   """
   elem = driver.find_element_by_css_selector(".u-page")
   print elem.find_element_by_css_selector('.js-selected').text
   elems = elem.find_elements_by_tag_name('a')
   for e in elems:
       if '下一页' == e.text:
           return e
       
   return None



driver = webdriver.PhantomJS()
driver.get("https://music.163.com/#/song?id=1313558205")

time.sleep(1)

driver.switch_to.frame(driver.find_element_by_id('g_iframe'))
time.sleep(1)

# 需要爬取的页数
num = 2

# 已爬取评论个数
commentNum = 0
driver.execute_script("window.scrollTo(0,document.body.scrollHeight)")
for n in range(num):
    #先爬取
    elements = driver.find_elements_by_css_selector("div[class='cnt f-brk']")
    with open('test.txt', 'a') as f:
        f.write('-----------------------------第'+bytes(n+1)+'页-------------------------  \n')
        for ee in elements:
            commentNum += 1
            f.write(bytes(commentNum)+'-----'+ee.text+'\n')
            
    
    # 判断是否有下一页
    elem = isNextPageExist(driver)
    if elem == None:
        print  '没有下一页了'
        driver.close()
    else:
        print '点击下一页'
        elem.click()
        time.sleep(2)  
    
    
driver.close()  
        
        
  

python其实学的很烂,写这段代码的初衷是想讲python爬虫的课,所以选择了python
其实还有几个爬取百度的啊,用微博登录的啊,等,用的是selenium + 火狐,就没放这里,但原理一样的,需要用到的核心代码都在这里了

对了,有空的话,要把代码改成python3的··

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值