selenium点击链接进入子页面抓取内容(新闻抓取案例一) |
您所在的位置:网站首页 › selenium打开url › selenium点击链接进入子页面抓取内容(新闻抓取案例一) |
找了一个新闻网站练习爬虫抓取,目标:逐一点击目录标题,进入详细新闻页面,抓取子页面的标题和正文内容并打印出来,返回目录标题页,点击下一篇文章。注:没有新开窗口,是在原窗口实现跳转。新开窗口进行抓取看下一篇文章。 试了很多种方法都抓取不到class=rightContent下面每个a标签里的href链接,开始思考是不是因为href链接都放在li列表里面导致。 后面终于试到怎么获取这些在列表li里的href链接了:首先第一步先抓取到所有a标签,这里用的是绝对路径,比较方便,直接右键copy→xpath。这样抓取出来的是一个列表links: links=driver.find_elements_by_xpath("/html/body/div[5]/div[4]/ul/li/a")通过for link in links遍历所有抓取出来的a标签内容,然后再用get_attribute()函数来获取每一个link的href属性,得到的是a标签对应的目标页面的URL: link.get_attribute('href')这样就能获得每一个子页面地址。但要注意,这里抓取出来的是地址的字符串,不能点击。相当于在word里面输入网址,但是没按回车制造超链接,使网址变成了普通文字。这时候不能用click(),应该要用driver.get()来让浏览器加载这个url,相当于把网址的字符串复制到浏览器网址栏直接打开网址: driver.get(url)打开子页面成功抓取第一篇的标题和正文退回目录页后,发现停住不动了。这时候是因为页面发生跳转后,所有元素的信息都变更了。因此,需要在每次回到目录页面后重新抓取a标签,同时又必须接着上次点击后一个的元素继续点击。使用遍历的方法来实现这个for循环,完整代码如下: from selenium import webdriver import time driver=webdriver.Chrome() driver.get("http://www.spic.com.cn/2018news/zhxx/") time.sleep(3) #留出加载时间 links=driver.find_elements_by_xpath("/html/body/div[5]/div[4]/ul/li/a") #获取到所有a标签,组成一个列表 length=len(links) #列表的长度,一共有多少个a标签 for i in range(0,length): #遍历列表的循环,使程序可以逐一点击 links=driver.find_elements_by_xpath("/html/body/div[5]/div[4]/ul/li/a") #在每次循环内都重新获取a标签,组成列表 link=links[i] #逐一将列表里的a标签赋给link url=link.get_attribute('href') #提取a标签内的链接,注意这里提取出来的链接是字符串 driver.get(url) #不能用click,因为click点击字符串没用,直接用浏览器打开网址即可 time.sleep(1) #留出加载时间 title=driver.find_element_by_xpath("//div[@class='articleTitle']").text #.text的意思是指输出这里的纯文本内容 print(title) content=driver.find_element_by_xpath("//div[@class='TRS_Editor']").text print(content) print("\n") driver.back() #后退,返回原始页面目录页 time.sleep(1) #留出加载时间 print(length) #打印列表长度,即有多少篇文章参考资料:python selenium自动化(一)点击页面链接测试Python+Selenium WebDriver API:浏览器及元素的常用函数及变量整理总结 |
今日新闻 |
点击排行 |
|
推荐新闻 |
图片新闻 |
|
专题文章 |
CopyRight 2018-2019 实验室设备网 版权所有 win10的实时保护怎么永久关闭 |