十分钟教会你用Python写网络爬虫程序 | 您所在的位置:网站首页 › 爬虫报告怎么写的啊 › 十分钟教会你用Python写网络爬虫程序 |
在互联网时代,爬虫绝对是一项非常有用的技能。借助它,你可以快速获取大量的数据并自动分析,或者帮你完成大量重复、费时的工作,分分钟成为掌控互联网的大师。 ![]() 注意:欲获取本文所涉及的文案,代码及教学视频的链接,请移步留言区。这是我们第一次录制教学视频来帮助大家更好的学习技术,该视频的录制耗时超过八个小时。 什么是爬虫? -- 爬虫,即网络爬虫,大家可以理解为在网络上爬行的一只蜘蛛,互联网就比作一张大网,而爬虫便是在这张网上爬来爬去的蜘蛛咯,如果它遇到资源,那么它就会抓取下来。想抓取什么?这个由你来控制。 -- 比如它在抓取一个网页,在这个网中他发现了一条道路,其实就是指向网页的超链接,那么它就可以爬到另一张网上来获取数据。这样,整个连在一起的大网对这之蜘蛛来说触手可及,分分钟爬下来不是事儿。 -- 在用户浏览网页的过程中,我们可能会看到许多好看的图片,比如 ![]() ,我们会看到几张的图片以及百度搜索框,这个过程其实就是用户输入网址之后,经过DNS服务器,找到服务器主机,向服务器发出一个请求,服务器经过解析之后,发送给用户的浏览器 HTML、JS、CSS 等文件,浏览器解析出来,用户便可以看到形形色色的图片了。 -- 因此,用户看到的网页实质是由 HTML 代码构成的,爬虫爬来的便是这些内容,通过分析和过滤些 HTML 代码,实现对图片、文字等资源的获取。 那URL又是什么呢? -- URL,即统一资源定位符,也就是我们说的网址,统一资源定位符是对可以从互联网上得到的资源的位置和访问方法的一种简洁的表示,是互联网上标准资源的地址。互联网上的每个文件都有一个唯一的URL,它包含的信息指出文件的位置以及浏览器应该怎么处理它。 -- URL的格式由三部分组成: 1是协议(或称为服务方式)。 2是存有该资源的主机IP地址(有时也包括端口号)。 3是主机资源的具体地址,如目录和文件名等。 爬虫爬取数据时必须要有一个目标的URL才可以获取数据,因此,它是爬虫获取数据的基本依据,准确理解它的含义对爬虫学习有很大帮助。 ![]() 看完了上面的介绍,小伙伴们是不是已经迫不及待想要搞搞事情了呢? ![]() 下面正式为你们介绍如何利用爬虫获取资源 ①环境配置 学习Python,当然少不了环境的配置。要使用python进行各种开发和科学计算,还需要安装对应的包。在这里给大家推荐Anaconda,它把需要的包都集成在了一起,因此我们实际上从头到尾只需要安装Anaconda软件就行了,而且Anaconda自带编译器spyder。下载地址: ![]() 下载安装包名称为:Anaconda3-5.0.0-Windows-x86_64.exe ![]() 按照正常步骤安装即可, 注意事项 将两个选项都选上,将安装路径写入环境变量 然后等待安装完成就行了。 如何管理python包? 安装一个包: conda install package_name 移除一个包: conda remove package_name 升级包版本: conda update package_name 查看所有的包: conda list 这样就可以将包安装进Anaconda里面,如果你要想把包安装进自己的系统里面的话就用pip命令了。 安装完Anaconda后,我们就可以用自带的spyder编译器来写代码了。 ![]() 好了,环境配置好了。接下来跟着小编的步伐一起来搞点事情吧。 ②确定URL并抓取页面代码 糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,现在我们尝试抓取一下糗事百科的热门段子吧,每按下一次回车我们显示一个段子。 首先我们确定好页面的URL是 ![]() 其中最后一个数字1代表页数,我们可以传入不同的值来获得某一页的段子内容。我们初步构建如下的代码来打印页面代码内容试试看,先构造最基本的页面抓取方式。 代码语言:javascript复制import urllib import urllib.request page = 1 user_agent = 'Mozilla/5.0 (Windows NT 6.3; WOW64; rv:56.0) Gecko/20100101 Firefox/56.0' //模拟浏览器的头 headers = { 'User-Agent' : user_agent } try: request = urllib.request.Request(url,headers = headers) response = urllib.request.urlopen(request) print(response.read()) except urllib.request.URLError, e: if hasattr(e,"code"): print(e.code) if hasattr(e,"reason"): print(e.reason)③提取某一页的所有段子 进入糗事百科的界面,我们打开浏览器自带的WEB查看器 ![]() 我们可以看到,每一个段子都是…包裹的内容。 现在我们想获取发布人,发布日期,段子内容,以及点赞的个数。不过另外注意的是,段子有些是带图片的,如果我们想在控制台显示图片是不现实的,所以我们直接把带有图片的段子给它剔除掉,只保存仅含文本的段子。 所以我们加入如下正则表达式来匹配一下,用到的方法是 re.findall 是找寻所有匹配的内容。 代码语言:javascript复制content = response.read().decode('utf-8')//已经爬取的网页内容 代码语言:javascript复制pattern = re.compile('(.*?).*?(.*?) |
CopyRight 2018-2019 实验室设备网 版权所有 |