Python 爬取单个网页所需要加载的URL地址和CSS、JS文件地址 您所在的位置:网站首页 python网页爬取图片 Python 爬取单个网页所需要加载的URL地址和CSS、JS文件地址

Python 爬取单个网页所需要加载的URL地址和CSS、JS文件地址

2023-04-09 00:48| 来源: 网络整理| 查看: 265

Python 爬取单个网页所需要加载的URL地址和CSS、JS文件地址 原创

wx63ec8c81ec2c9 2023-04-05 12:34:15 博主文章分类:编程开发 ©著作权

文章标签 python css javascript html Windows 文章分类 Python 后端开发

©著作权归作者所有:来自51CTO博客作者wx63ec8c81ec2c9的原创作品,请联系作者获取转载授权,否则将追究法律责任

直接上代码:

脱敏后自用的py采集代码,

#!/usr/bin/env python # -*- coding:utf-8 -*- """ @author:Andy @file:xxx.py @time:下午05:50 @desc:采集的文章数据进博客 """ import os import re import time import requests from bs4 import BeautifulSoup, SoupStrainer from requests.exceptions import RequestException from hashlib import md5 from urllib.parse import urlparse import urllib headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36' } def get_content(): url = 'http://ask.xxxx.com/question/xxxx' # url response = requests.get(url, headers=headers).text.replace('', '') soup = BeautifulSoup(response, 'lxml') # div = soup.select('#aw-mod-body ueditor-p-reset') pattern = re.compile('(.*?)', re.S) p = soup.find_all('a') for item in p: # print(str(item)) result = re.findall(pattern, str(item)) if result: # print(result) for i in result: url, name = i # print(i) yield { 'url': url, 'name': name } def mkdir(path): # 去除首位空格 path=path.strip() # 去除尾部 \ 符号 path=path.rstrip("\\") # 判断路径是否存在 # 存在 True # 不存在 False isExists=os.path.exists(path) # 判断结果 if not isExists: # 如果不存在则创建目录 # 创建目录操作函数 os.makedirs(path) print(path+' 创建成功') return True else: # 如果目录存在则不创建,并提示目录已存在 print(path+' 目录已存在') return False def getUrl(html): #patterncss = '


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有