python3_爬虫_爬百度音乐

工具及环境

1、操作系统:windows 64位系统

2、软件工具:谷歌浏览器、pycharm集成开发工具

3、第三方库:request

注:如果第三方库搭建有困难,请看博客:https://www.cnblogs.com/chuijingjing/p/9157049.html

明确要目标

首先,我们了解一下什么是爬虫。网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。

我们今天要爬的内容是百度音乐里面的音乐,为什么要爬百度音乐呢?当然是因为这个软件太垃圾了,根本没有反扒机制,所以我们挑软柿子捏。像我们的信仰网易云音乐是不可能让我们轻易爬到它的内容的,如果想要爬网易云,要有防反爬机制。我们这次只是简单介绍爬虫的原理,写一个小小的爬虫,下次我会给大家带来一个加入防反爬机制复杂的爬虫。话不多说,让我们开干!

说干咱就干

1、脉络梳理

首先,我们把要做的工作先来大体梳理一下,好有一个清晰的脉络。

1.爬虫的本质(模拟浏览器的行为)
    网络爬虫;
    模拟浏览器,访问互联网资源,根据我们制定的规则,
    批量的下载我们所需要的数据的程序。
    
2.利用谷歌浏览器分析http请求
    网络资源(例如:网上的歌曲、图片),每一个网络
    资源都有全球唯一的一个url。
    url(全球统一资源定位符)
    
    F12 打开
    network选项监控http请求
    
3.分析百度音乐的请求流程
    下载mp3
    倒推法
        1、先找到mp3的下载请求
        2、歌曲的下载地址也是从服务器请求回来的,
           找到下载地址的那个请求,根据歌曲id
        3、找到歌曲的id
        
    
4.通过python去实现请求

2、浏览器设置

我们先进入“百度音乐”,搜索你喜欢的歌手的音乐,我比较喜欢华仔。然后点击浏览器右上方的三个点,选择“更多工具”,选择“开发者工具”,进入开发者模式。或者直接按“F12”进入开发者模式。

点击“Network”,在“Disable cache”前面打上√,不要去缓存,否则死活找不到请求的数据

按照1、2、3、4、5的顺序做下来

1:清空内容;

2:回车,发出请求;

3:查看所有请求的信息;

4:每个请求的名字;

5:每个请求的详细信息。

 

Header:头信息

  1. Request URL:http://music.baidu.com/cms/hunter/alog/speed.min.js?v=160115  # 请求的地址
  2. Request Method:GET  # 请求的方法
  3. Status Code:200 OK   # http请求成功后返回的 int值
  4. Remote Address:180.76.141.217:80  # 远程地址
  5. Referrer Policy:no-referrer-when-downgrade  # 按照浏览器的默认值执行。默认值为 no-referrer-when-downgrade

先点完上面三个标注按钮,然后点击播放按钮,播放音乐;

音乐播放几秒钟后关闭播放,然后点击下面的三个按钮;

接下来就是分析歌曲的头信息Headers了。

按照图示,找到网页文字对应的网页源码的信息

上面界面中鼠标右键查看页面源码,出现下面的源码界面,按Ctrl+F出现搜索界面,搜索要用到的内容。

3、爬取一首歌曲

由浅入深,我们先来写一段简单的代码,用它来只爬取一首歌。

# -*- coding: utf-8 -*-
# the auther is cjj

import requests  # 导入关于请求模块
url = 'http://zhangmenshiting.qianqian.com/data2/music/5ebb214edf0a1589e3e1ca58196981e5/594723982/
    594723982.mp3?xcode=f6925df9ce85d4400c486914f0acd7b6
' # 发送http请求 response = requests.get(url) # response 接收请求回来的数据 print(response.content) # response.content 输出歌曲的二进制信息 # 把下载下来的歌曲储存为mp3文件 with open('mp3.mp3','wb') as f: # 把文件以‘f’的名字命名,下面以‘f’为名字打开 f.write(response.content)

这样,我们就可以实现爬虫的基本功能了,我们来看一下这首歌能不能听。

这是你的代码和歌曲储存地址,我们去这里来找一下华仔的“慢慢”

果然在这里找到了,双击之后发现歌曲可以正常播放。

这样,我们完成了一个最简单的歌曲的爬取。

注:文件操作方面如果不了解可以参考:https://www.cnblogs.com/chuijingjing/articles/8034238.html

4、代码演示

文件操作内容:https://www.cnblogs.com/chuijingjing/articles/8034238.html

字典相关内容:https://www.cnblogs.com/chuijingjing/articles/8007387.html

json相关内容:https://www.cnblogs.com/chuijingjing/articles/8074292.html

正则相关内容:http://www.runoob.com/regexp/regexp-syntax.html

# -*- coding: utf-8 -*-
# the auther is cjj

import requests
import re
# 第一步,获取歌曲的ids
search_api = 'http://music.baidu.com/search'
# 搜索关键字,传递参数,通过字典构造
keyword = {'key': '刘德华'}
# 发送get请求   params 是传递的get参数
response = requests.get(search_api, params=keyword)
# 取出html的源码
response.encoding = 'utf-8'  # 编码转换
html = response.text
# 通过正则表达式获取id
ids = re.findall(r'{"id":"(d+)&quot',html)

# 第二步,获取歌曲的信息
mp3_info_api = 'http://play.baidu.com/data/music/songlink'
data = {
    'songIds': ','.join(ids),
    'hq': 0,
    'type': 'm4a,mp3',
    'rate': '',
    'pt': 0,
    'flag': -1,
    's2p': -1,
    'prerate': -1,
    'bwt': -1,
    'dur': -1,
    'bat': -1,
    'bp': -1,
    'pos': -1,
    'auto': -1
}
# data就是 post的参数
res = requests.post(mp3_info_api,data=data)
# 返回值的数据是就送格式,直接调用json方法,转成字典
info = res.json()

# 第三步,去下载歌曲
# 根据数据的结构获取歌曲的信息
song_info = info['data']['songList']
# 循环
for song in song_info:
    # 根据数据结构获取信息
    # 歌名
    song_name = song['songName']
    # mp3地址
    song_link = song['songLink']
    # 格式
    for_mat = song['format']
    # 歌词地址
    lrclink = song['lrcLink']
    print(song_name)
    # 下载mp3
    if song_link: # 可能没有地址
        song_res = requests.get(song_link) # 下载
        # 写文件
        with open('%s.%s' % (song_name, for_mat),'wb') as f:
            f.write(song_res.content)  # 歌曲是二进制
    # 下载歌词
    if lrclink:
        lrc_response = requests.get(lrclink)
        # 写文件
        with open('%s.lrc' % song_name, 'w', encoding= 'gbk') as f:
            f.write(lrc_response.text)

下面是成功爬取到的音乐!

原文地址:https://www.cnblogs.com/chuijingjing/p/9159538.html