本文是Python学期实训时所写的爬虫项目,在这里分享给你,希望能对你有所帮助。 传送门—>安装Python环境及PyCharm编辑器并配置爬虫环境
文章目录
找到网页中有价值的内容及其所处在源码中的位置 编写爬虫代码,将信息爬取下来并保存到本地文件中。 将爬取到的数据进行分析。
内容部分:
一.找到网页中有价值的内容及其所处在源码中的位置
英雄联盟官方网址: 英雄联盟全新官方网站-腾讯游戏 英雄数据信息网址: 游戏资料-英雄联盟官方网站-腾讯游戏 本小节操作的目的是:找出官网上对自己有价值的信息及其所在网页源代码中的位置。
第一步:分析网页信息
所有的英雄页: 在英雄联盟—游戏资料中,展示了所有的英雄数据,包括有原皮肤,英雄名以及英雄信息信息的网址链接。通过按下 F12 键我们可以查看到网页的源代码,展示如下:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210105101811234.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQ2MTI3MDM0,size_16,color_FFFFFF,t_70#pic_center)
为了方便我们快速获取网页中某一部分的源码信息,我们可以点击屏幕中间位置最左边的箭头图标,去网页中找到该部分对应信息的源代码。( 在这里小编以安妮为例 )
在此我们可以分析得出,一个<li>标签下放置着一个英雄的部分信息,其中,英雄详细信息的地址链接放置在 a 标签的 href 属性中,英雄的姓名全称放置在 a 标签的 title 属性中,英雄原皮肤图片地址链接放置在 img 标签下的 src 属性中,英雄的简称姓名放置在 p 标签中。
当我们点击进入英雄详细信息的展示页面时,通过同样的方法我们可以得到以下内容:
单个英雄职业信息: 英雄的职业信息是放置在 id 为 “DATA tags” 的 div 容器下的 span 标签中。
单个英雄皮肤信息: 英雄的所有皮肤信息被放置在 id 为 “skinNAV” 的 ul 容器下的 li 标签中。在每一个 li 标签内的 a 标签内的 img 标签中的 alt 属性存放的是英雄皮肤的名字, src 属性存放的是英雄每个皮肤的图片网址,
单个英雄背景故事: 英雄的背景故事信息被放置在 id 为 “DATAlore” 的 div 容器中,但是内容并不完整。通过点击 id 为 “Gmore”的 a 标签,可以将英雄的背景故事信息完整的添加在 id 为 “DATAlore” 的 div 容器中展示出来。 单个英雄技能信息: 英雄技能信息被放置在 class 名为 “skilltitle” 的 div 容器下,h5 标签中放置的是英雄的技能名,em 标签中放置的是技能触发方式。通过点击 id 为 “DATAspellsNAV” 的 ul 标签下的每个 li 标签,可以将 class 名为 “skilltitle” 的 div 容器中的信息修改成别的技能介绍。 当你使用某一英雄时的使用技巧: 当你使用某一英雄时的使用技巧介绍被放在 id 为 “DATAallytips” 的 dl 标签下的 dd 标签下的所有 p 标签中。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/20210106201644153.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQ2MTI3MDM0,size_16,color_FFFFFF,t_70#pic_center)
当敌人使用某一英雄时的应对技巧: 当敌人使用某一英雄时的应对技巧介绍被放在 id 为 “DATAenemytips” 的 dl 标签下的 dd 标签下的所有 p 标签中。 综上所述,我们已经找到了对自己有用的信息,也找到了信息所在网页源码中的位置,接下来要做的就是使用爬虫代码,将信息爬取下来并保存到本地文件中。
二.编写爬虫代码,将信息爬取下来并保存到本地文件中。
```python
# 导入必要的库文件
# 导入selenium抓取动态网页信息
from selenium import webdriver
# 导入时间控制器
import time
# 导入正则表达式
import re
from urllib.request import urlretrieve
import os
from xlutils import copy
import xlrd
# 定义全局变量
# 所有的英雄全名及其详细信息的网址
allHeroParticularlyMessageUrl = []
heroNameList = []
heroJobList = []
heroSkinNumberList = []
heroPassiveSkillsList = []
heroQSkillsList = []
heroWSkillsList = []
heroESkillsList = []
heroRSkillsList = []
heroMessageList = []
# 主程序
def main():
# 定义一个计数器
count = 1
#定义存储的起始位置
start = 1
#定义结束位置
end = ""
#创建皮肤图片保存目录
imageFilePath = 'C:/Users/24010/Desktop/skinImages'
if not os.path.exists(imageFilePath):
os.mkdir(imageFilePath)
print("...开始爬取数据...")
# 定义初始爬取网页的URL
basciPageUrl = "https://lol.qq.com/data/info-heros.shtml"
print("...爬取所有的英雄全名及其详细信息的网址执行中...")
seleniumForGetAllHeroURL(basciPageUrl)
excel_path = './heroBasicInformationExcel.xls' # 文件路径
rbook = xlrd.open_workbook(excel_path, formatting_info=True) # 打开文件
book = copy.copy(rbook) # 复制文件并保留格式
sheet = book.get_sheet(0) # 索引sheet表
# 获取每个英雄的详细详细信息
for oneHeroUrl in allHeroParticularlyMessageUrl:
#保存中断后,可修改start的值,继续修改
if end == "":
if start |