VB.net 2010 视频教程 VB.net 2010 视频教程 python基础视频教程
SQL Server 2008 视频教程 c#入门经典教程 Visual Basic从门到精通视频教程
当前位置:
首页 > temp > python入门教程 >
  • 初试爬虫

通过前面章节的介绍,我们对什么是爬虫有了初步的认识,同时对如何爬取网页有了一个大概的了解。从本章起,我们将从理论走向实践,结合实际操作来进一步深化理解。

由于使用python进行爬虫抓取页面可供使用的工具众多,比如requests、scrapy、PhantomJS、Splash等,并且对于抓取的页面解析的工具也很多。我们这里从最简单的开始,使用requests库和beautifSoup工具进行静态页面抓取和解析。

等基本功扎实之后,我们可以使用更灵活多变的工具,不仅可以静态抓取,还可以动态抓取;不仅可以抓取单页面,还可以递归深度抓取。同时结合其他的渲染、存储、机器学习等工具,我们可以对数据进行处理、加工、建模、展示。

废话不多说,让我们开始今天的例子,抓取安徒生童话故事中的名篇《丑小鸭》。“工欲善其事,必先利其器”,在开始之前我们需要把准备工作做好,下载pycharm,并安装requests库和beautifSoup。安装结果如下:

开始爬虫的第一步,找到含有《丑小鸭》这篇童话故事的链接,我们这里使用的链接是:https://www.ppzuowen.com/book/antushengtonghua/7403.html。

在找到我们的目标链接之后,第二步就是分析网页。分析什么呢?当然是分析我们要爬取的内容在哪里。

根据我们前面的介绍,我们此次爬虫的目的是爬取丑小鸭这篇课文。根据这一目标,我们需要先来研究网页的构成。那么如何查看网页呢?一般是在浏览器的开发者模式下进行,对于chrome浏览器,我们可以使用快捷键F12进行查看,如图所示:

左边的是网页显示的内容,右边是网页的HTML文档。

通过对右边页面的分析,我们可以观察到,我们需要抓取的页面内容在一个<p></p>标签中:

既然页面找到了,需要抓取的内容的位置也找到了,那么现在我们需要解决的一个问题是:如何使用代码快速的进行目标内容的位置定位?

在理想的情况下,我们希望这个<p></p>标签有一个唯一的属性(通常为id或class),那么我们就可以直接通过这个属性进行位置定位。

但是很遗憾的是,在我们这个目标标签<p></p>中,它没有任何属性,更别谈唯一属性了。既然直接访问的愿望落空了,那么只能使用间接的。

通常间接的方法有两种:第一种是找跟它相邻的某个可以快速定位的标签,然后再根据这两个标签tag之间的位置关系进行间接访问。在本次操作中,我们很容易找到<p></p>标签的父标签div拥有唯一的class属性articleContent;第二种方式是一次把所有<p></p>标签都找出来,然后使用挨个遍历的方式,找到目标的标签。事实上,在实际爬取过程中,这两种方式都有使用。

至于哪个更好,我们会根据实际情况进行分析、选择。在这里我们对两种方式都进行演示。

第一种方式:

我们根据<p></p>标签的父标签div拥有唯一的class属性articleContent找到div标签,然后根据父子关系找到p标签,再通过正则表达式对无用内容进行过滤,得到最终结果。

# 请求库
import requests
# 解析库
from bs4 import BeautifulSoup
import re
# 爬取的网页链接
url=r"https://www.ppzuowen.com/book/antushengtonghua/7403.html"
r= requests.get(url)
r.encoding=None
result = r.text
# 再次封装,获取具体标签内的内容
bs = BeautifulSoup(result, 'lxml')
psg = bs.select('.articleContent > p')
title = bs.select('title')[0].text.split('_')[0]
# print(title)
txt = ''.join(str(x) for x in psg)
res = re.sub(r'<.*?>', "", txt)
result=res.split("(1844年)")[0]
print('标题:',title)
print('原文内容:',result)

最终的结果:

实现的代码主要分为两部分:第一部分是页面的抓取,如:

# 爬取的网页链接
url=r"https://www.ppzuowen.com/book/antushengtonghua/7403.html"
r= requests.get(url)
r.encoding=None
result = r.text
print(result)

这部分内容与我们之前在浏览器的开发者模式下看到的HTML源码是一摸一样的。

第二部分是页面的解析。

我们之前介绍过HTLML页面本质上是一棵DOM树,我们采用树遍历子节点的方式遍历HTML页面中的标签,如:

# 再次封装,获取具体标签内的内容
bs = BeautifulSoup(result, 'lxml')
psg = bs.select('.articleContent > p')

这里先将页面信息转为xml的格式文档(注:HTML文档属于一种特殊类型的xml文档),然后根据css的语法找到p标签的内容。

第二种方式:
我们按照最开始的方式写成的代码是这样的:

# 请求库
import requests
# 解析库
from bs4 import BeautifulSoup

# 爬取的网页链接
url=r"https://www.ppzuowen.com/book/antushengtonghua/7403.html"
r= requests.get(url)
r.encoding=None
result = r.text
# 再次封装,获取具体标签内的内容
bs = BeautifulSoup(result,'html.parser')
# 具体标签
print("---------解析后的数据---------------")
# print(bs.span)
a={}
# 获取已爬取内容中的p签内容
data=bs.find_all('p')
# 循环打印输出
for tmp in data:
    print(tmp)
    print('********************')

然后我们查看输出的结果却与预期并不相符,是这样的:

获取的内容是分段的,并且还夹杂很多其他的没用的信息。事实上,这些在实际爬取过程中都是常见的,不是每次爬取都是一步到位,需要不停的调试。

经过分析,我们可以使用表达式对无用信息进行过滤,同时使用字符串拼接函数进行拼接,得到我们预期的内容。

最终的代码如下:

# 请求库
import requests
# 解析库
from bs4 import BeautifulSoup

# 爬取的网页链接
url=r"https://www.ppzuowen.com/book/antushengtonghua/7403.html"
r= requests.get(url)
r.encoding=None
result = r.text
# 再次封装,获取具体标签内的内容
bs = BeautifulSoup(result,'html.parser')
# 具体标签
print("---------解析后的数据---------------")
# print(bs.span)
a={}
# 获取已爬取内容中的p签内容
data=bs.find_all('p')
result=''
# 循环打印输出
for tmp in data:
    if '1844年' in tmp.text:
        break
    result+=tmp.text
   
print(result)

以上我们通过两种方式讲解了如何爬取一些简单的网页信息。当然,对于爬取的内容,我们有时不仅是输出,可能还需要进行存储。

通常存储的方式采用的是文件和数据库形式,关于这些内容,我们将在后续进行详细介绍。

出处:

https://www.cnblogs.com/turing09/p/13171708.html


相关教程