【微服务从入门到入土】网页数据解析
我们抓取,我们采集,我们分析,我们挖掘
我们爬取到网页肯定是需要提取页面信息的,但是使用正则表达式提取就比较繁琐。而且一旦有地方写错二零,可能会导致匹配失败。不太方便。
对于网页来说,是具备DOM节点树结构的,所以我们可以通过XPath来定位一个或多个节点。在python中有很多解析库。我们可以用它们来提高我们解析的效率。
lxml用XPath解析
XPath,全称是 XML Path Language,即 XML 路径语言,它是一门在 XML 文档中查找信息的语言。它最初是用来搜寻 XML 文档的,但是它同样适用于 HTML 文档的搜索。
所以在做爬虫时,我们完全可以使用 XPath 来做相应的信息抽取。本节我们就来了解下 XPath 的基本用法。
1. XPath 概览
XPath 的选择功能十分强大,它提供了非常简洁明了的路径选择表达式。另外,它还提供了超过 100 个内建函数,用于字符串、数值、时间的匹配以及节点、序列的处理等。几乎所有我们想要定位的节点,都可以用 XPath 来选择。
XPath 于 1999 年 11 月 16 日成为 W3C 标准,它被设计为供 XSLT、XPointer 以及其他 XML 解析软件使用,更多的文档可以访问其官方网站:https://www.w3.org/TR/xpath/。
2. XPath 常用规则
下表列举了 XPath 的几个常用规则。
表 XPath 常用规则
表 达 式 | 描 述 |
---|---|
nodename |
选取此节点的所有子节点 |
/ |
从当前节点选取直接子节点 |
// |
从当前节点选取子孙节点 |
. |
选取当前节点 |
.. |
选取当前节点的父节点 |
@ |
选取属性 |
这里列出了 XPath 的常用匹配规则,示例如下:
1 | //title[@lang='eng'] |
这就是一个 XPath 规则,它代表选择所有名称为 title
,同时属性 lang
的值为 eng
的节点。
后面会通过 Python 的 lxml 库,利用 XPath 进行 HTML 的解析。
3. 准备工作
使用之前,首先要确保安装好 lxml 库。如尚未安装,可以使用 pip3 来安装:
1 | pip3 install lxml |
更详细的安装说明可以参考:https://setup.scrape.center/lxml。
安装完成之后,我们就可以进行接下来的学习了。
4. 实例引入
现在通过实例来感受一下使用 XPath 对网页进行解析的过程,相关代码如下:
1 | from lxml import etree |
这里首先导入 lxml 库的 etree 模块,然后声明了一段 HTML 文本,调用 HTML 类进行初始化,这样就成功构造了一个 XPath 解析对象。这里需要注意的是,HTML 文本中的最后一个 li
节点是没有闭合的,但是 etree 模块可以自动修正 HTML 文本。
这里我们调用 tostring
方法即可输出修正后的 HTML 代码,但是结果是 bytes
类型。这里利用 decode
方法将其转成 str
类型,结果如下:
1 | <html> |
可以看到,经过处理之后,li
节点标签被补全,并且还自动添加了 body
、html
节点。
另外,也可以直接读取文本文件进行解析,示例如下:
1 | from lxml import etree |
其中 test.html 的内容就是上面例子中的 HTML 代码,内容如下:
1 | <div> |
这次的输出结果略有不同,多了一个 DOCTYPE
声明,不过对解析无任何影响,结果如下:
1 |
|
5. 所有节点
我们一般会用 //
开头的 XPath 规则来选取所有符合要求的节点。这里以前面的 HTML 文本为例,如果要选取所有节点,可以这样实现:
1 | from lxml import etree |
运行结果如下:
1 | [<Element html at 0x10510d9c8>, <Element body at 0x10510da08>, <Element div at 0x10510da48>, <Element ul at 0x10510da88>, <Element li at 0x10510dac8>, <Element a at 0x10510db48>, <Element li at 0x10510db88>, <Element a at 0x10510dbc8>, <Element li at 0x10510dc08>, <Element a at 0x10510db08>, <Element li at 0x10510dc48>, <Element a at 0x10510dc88>, <Element li at 0x10510dcc8>, <Element a at 0x10510dd08>] |
这里使用 *
代表匹配所有节点,也就是整个 HTML 文本中的所有节点都会被获取。可以看到,返回形式是一个列表,每个元素是 Element
类型,其后跟了节点的名称,如 html
、body
、div
、ul
、li
、a
等,所有节点都包含在列表中了。
当然,此处匹配也可以指定节点名称。如果想获取所有 li
节点,示例如下:
1 | from lxml import etree |
这里要选取所有 li
节点,可以使用 //
,然后直接加上节点名称即可,调用时直接使用 xpath
方法即可。
运行结果如下:
1 | [<Element li at 0x105849208>, <Element li at 0x105849248>, <Element li at 0x105849288>, <Element li at 0x1058492c8>, <Element li at 0x105849308>] |
这里可以看到,提取结果是一个列表形式,其中每个元素都是一个 Element
对象。如果要取出其中一个对象,可以直接用中括号加索引,如 [0]
。
6. 子节点
我们通过 /
或 //
即可查找元素的子节点或子孙节点。假如现在想选择 li
节点的所有直接子节点 a
,可以这样实现:
1 | from lxml import etree |
这里通过追加 /a
即选择了所有 li
节点的所有直接子节点 a
。因为 //li
用于选中所有 li
节点,/a
用于选中 li
节点的所有直接子节点 a
,二者组合在一起即获取所有 li
节点的所有直接子节点 a
。
运行结果如下:
1 | [<Element a at 0x106ee8688>, <Element a at 0x106ee86c8>, <Element a at 0x106ee8708>, <Element a at 0x106ee8748>, <Element a at 0x106ee8788>] |
此处的 /
用于选取直接子节点,如果要获取所有子孙节点,就可以使用 //
。例如,要获取 ul
节点下的所有子孙节点 a
,可以这样实现:
1 | from lxml import etree |
运行结果是相同的。
但是如果这里用 //ul/a
,就无法获取任何结果了。因为 /
用于获取直接子节点,而在 ul
节点下没有直接的 a
子节点,只有 li
节点,所以无法获取任何匹配结果,代码如下:
1 | from lxml import etree |
运行结果如下:
1 | [] |
因此,这里我们要注意 /
和 //
的区别,其中 /
用于获取直接子节点,//
用于获取子孙节点。
7. 父节点
我们知道通过连续的 /
或 //
可以查找子节点或子孙节点,那么假如我们知道了子节点,怎样来查找父节点呢?这可以用 ..
来实现。
比如,现在首先选中 href
属性为 link4.html
的 a
节点,然后获取其父节点,再获取其 class
属性,相关代码如下:
1 | from lxml import etree |
运行结果如下:
1 | ['item-1'] |
检查一下结果发现,这正是我们获取的目标 li
节点的 class
属性。
同时,我们也可以通过 parent::
来获取父节点,代码如下:
1 | from lxml import etree |
8. 属性匹配
在选取的时候,我们还可以用 @
符号进行属性过滤。比如,这里如果要选取 class
为 item-0
的 li
节点,可以这样实现:
1 | from lxml import etree |
这里我们通过加入 [@class="item-0"]
,限制了节点的 class
属性为 item-0
,而 HTML 文本中符合条件的 li
节点有两个,所以结果应该返回两个匹配到的元素。结果如下:
1 | <Element li at 0x10a399288>, <Element li at 0x10a3992c8> |
可见,匹配结果正是两个,至于是不是那正确的两个,后面再验证。
9. 文本获取
我们用 XPath 中的 text
方法获取节点中的文本,接下来尝试获取前面 li
节点中的文本,相关代码如下:
1 | from lxml import etree |
运行结果如下:
1 | ['\n '] |
奇怪的是,我们并没有获取到任何文本,只获取到了一个换行符,这是为什么呢?因为 XPath 中 text
方法前面是 /
,而此处 /
的含义是选取直接子节点,很明显 li
的直接子节点都是 a
节点,文本都是在 a
节点内部的,所以这里匹配到的结果就是被修正的 li
节点内部的换行符,因为自动修正的 li
节点的尾标签换行了。
即选中的是这两个节点:
1 | <li class="item-0"><a href="link1.html">first item</a></li> |
其中一个节点因为自动修正,li
节点的尾标签添加的时候换行了,所以提取文本得到的唯一结果就是 li
节点的尾标签和 a
节点的尾标签之间的换行符。
因此,如果想获取 li
节点内部的文本,就有两种方式,一种是先选取 a
节点再获取文本,另一种就是使用 //
。接下来,我们来看下二者的区别。
首先,选取 a
节点再获取文本,代码如下:
1 | from lxml import etree |
运行结果如下:
1 | ['first item', 'fifth item'] |
可以看到,这里的返回值是两个,内容都是属性为 item-0
的 li
节点的文本,这也印证了前面属性匹配的结果是正确的。
这里我们是逐层选取的,先选取了 li
节点,又利用 /
选取了其直接子节点 a
,然后再选取其文本,得到的结果恰好是符合我们预期的两个结果。
再来看下用另一种方式(即使用 //
)选取的结果,代码如下:
1 | from lxml import etree |
运行结果如下:
1 | ['first item', 'fifth item', '\n '] |
不出所料,这里的返回结果是 3 个。可想而知,这里是选取所有子孙节点的文本,其中前两个就是 li
的子节点 a
内部的文本,另外一个就是最后一个 li
节点内部的文本,即换行符。
所以说,如果要想获取子孙节点内部的所有文本,可以直接用 //
加 text
方法的方式,这样可以保证获取到最全面的文本信息,但是可能会夹杂一些换行符等特殊字符。如果想获取某些特定子孙节点下的所有文本,可以先选取到特定的子孙节点,然后再调用 text
方法获取其内部文本,这样可以保证获取的结果是整洁的。
10. 属性获取
我们知道用 text
方法可以获取节点内部文本,那么节点属性该怎样获取呢?其实还是用 @
符号就可以。例如,我们想获取所有 li
节点下所有 a
节点的 href
属性,代码如下:
1 | from lxml import etree |
这里我们通过 @href
即可获取节点的 href
属性。注意,此处和属性匹配的方法不同,属性匹配是中括号加属性名和值来限定某个属性,如 [@href="link1.html"]
,而此处的 @href
指的是获取节点的某个属性,二者需要做好区分。
运行结果如下:
1 | ['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html'] |
可以看到,我们成功获取了所有 li
节点下 a
节点的 href
属性,它们以列表形式返回。
11. 属性多值匹配
有时候,某些节点的某个属性可能有多个值,例如:
1 | from lxml import etree |
这里 HTML 文本中 li
节点的 class
属性有两个值 li
和 li-first
,此时如果还想用之前的属性匹配获取,就无法匹配了,此时的运行结果如下:
1 | [] |
这时就需要用 contains
方法了,代码可以改写如下:
1 | from lxml import etree |
这样通过 contains
方法,给其第一个参数传入属性名称,第二个参数传入属性值,只要此属性包含所传入的属性值,就可以完成匹配了。
此时运行结果如下:
1 | ['first item'] |
此种方式在某个节点的某个属性有多个值时经常用到,如某个节点的 class
属性通常有多个。
12. 多属性匹配
另外,我们可能还遇到一种情况,那就是根据多个属性确定一个节点,这时就需要同时匹配多个属性。此时可以使用运算符 and
来连接,示例如下:
1 | from lxml import etree |
这里的 li
节点又增加了一个属性 name
。要确定这个节点,需要同时根据 class
和 name
属性来选择,一个条件是 class
属性里面包含 li
字符串,另一个条件是 name
属性为 item
字符串,二者需要同时满足,需要用 and
操作符相连,相连之后置于中括号内进行条件筛选。运行结果如下:
1 | ['first item'] |
这里的 and
其实是 XPath 中的运算符。另外,还有很多运算符,如 or
、mod
等,在此总结为表 3-。
表 3- 运算符及其介绍
运算符 | 描 述 | 实 例 | 返 回 值 | ||
---|---|---|---|---|---|
or |
或 | age=19 or age=20 |
如果 age 是 19,则返回 true 。如果 age 是 21,则返回 false |
||
and |
与 | age>19 and age<21 |
如果 age 是 20,则返回 true 。如果 age 是 18,则返回 false |
||
mod |
计算除法的余数 | 5 mod 2 |
1 | ||
` | ` | 计算两个节点集 | `//book | //cd` | 返回所有拥有 book 和 cd 元素的节点集 |
+ |
加法 | 6 + 4 |
10 | ||
- |
减法 | 6 - 4 |
2 | ||
* |
乘法 | 6 * 4 |
24 | ||
div |
除法 | 8 div 4 |
2 | ||
= |
等于 | age=19 |
如果 age 是 19,则返回 true 。如果 age 是 20,则返回 false |
||
!= |
不等于 | age!=19 |
如果 age 是 18,则返回 true 。如果 age 是 19,则返回 false |
||
< |
小于 | age<19 |
如果 age 是 18,则返回 true 。如果 age 是 19,则返回 false |
||
<= |
小于或等于 | <=19 |
如果 age 是 19,则返回 true 。如果 age 是 20 ,则返回 false |
||
> |
大于 | age>19 |
如果 age 是 20,则返回 true 。如果 age 是 19,则返回 false |
||
>= |
大于或等于 | age>=19 |
如果 age 是 19,则返回 true 。如果 age 是 18,则返回 false |
此表参考来源:http://www.w3school.com.cn/xpath/xpath_operators.asp。
13. 按序选择
有时候,我们在选择的时候某些属性可能同时匹配了多个节点,但是只想要其中的某个节点,如第二个节点或者最后一个节点,这时该怎么办呢?
这时可以利用中括号传入索引的方法获取特定次序的节点,示例如下:
1 | from lxml import etree |
第一次选择时,我们选取了第一个 li
节点,中括号中传入数字 1 即可。注意,这里和代码中不同,序号是以 1 开头的,不是以 0 开头。
第二次选择时,我们选取了最后一个 li
节点,中括号中调用 last
方法即可。
第三次选择时,我们选取了位置小于 3 的 li
节点,也就是位置序号为 1 和 2 的节点,得到的结果就是前两个 li
节点。
第四次选择时,我们选取了倒数第三个 li
节点,中括号中调用 last
方法再减去 2 即可。因为 last
方法代表最后一个,在此基础减 2 就是倒数第三个。
运行结果如下:
1 | ['first item'] |
这里我们使用了 last
、position
等方法。在 XPath 中,提供了 100 多个方法,包括存取、数值、字符串、逻辑、节点、序列等处理功能,它们的具体作用可以参考:http://www.w3school.com.cn/xpath/xpath_functions.asp。
14. 节点轴选择
XPath 提供了很多节点轴选择方法,包括获取子元素、兄弟元素、父元素、祖先元素等,示例如下:
1 | from lxml import etree |
运行结果如下:
1 | [<Element html at 0x107941808>, <Element body at 0x1079418c8>, <Element div at 0x107941908>, <Element ul at 0x107941948>] |
第一次选择时,我们调用了 ancestor
轴,可以获取所有祖先节点。其后需要跟两个冒号,然后是节点的选择器,这里我们直接使用 *
,表示匹配所有节点,因此返回结果是第一个 li
节点的所有祖先节点,包括 html
、body
、div
和 ul
。
第二次选择时,我们又加了限定条件,这次在冒号后面加了 div
,这样得到的结果就只有 div
这个祖先节点了。
第三次选择时,我们调用了 attribute
轴,可以获取所有属性值,其后跟的选择器还是 *
,这代表获取节点的所有属性,返回值就是 li
节点的所有属性值。
第四次选择时,我们调用了 child
轴,可以获取所有直接子节点。这里我们又加了限定条件,选取 href
属性为 link1.html
的 a
节点。
第五次选择时,我们调用了 descendant
轴,可以获取所有子孙节点。这里我们又加了限定条件获取 span
节点,所以返回的结果只包含 span
节点而不包含 a
节点。
第六次选择时,我们调用了 following
轴,可以获取当前节点之后的所有节点。这里我们虽然使用的是 *
匹配,但又加了索引选择,所以只获取了第二个后续节点。
第七次选择时,我们调用了 following-sibling
轴,可以获取当前节点之后的所有同级节点。这里我们使用 *
匹配,所以获取了所有后续同级节点。
以上是 XPath 轴的简单用法,更多轴的用法可以参考:http://www.w3school.com.cn/xpath/xpath_axes.asp。
15. 总结
到现在为止,我们基本上把可能用到的 XPath 选择器介绍完了。XPath 功能非常强大,内置函数非常多,熟练使用之后,可以大大提升 HTML 信息的提取效率。
如果想查询更多 XPath 的用法,可以查看:http://www.w3school.com.cn/xpath/index.asp。
如果想查询更多 Python lxml 库的用法,可以查看 http://lxml.de/。
本节代码:https://github.com/Python3WebSpider/XPathTest。
Beautiful Soup用Dom解析
上一节我们介绍了正则表达式,它的内容其实还是蛮多的,如果一个正则匹配稍有差池,那可能程序就处在永久的循环之中,而且有的小伙伴们也对写正则表达式的写法用得不熟练,没关系,我们还有一个更强大的工具,叫 Beautiful Soup,有了它我们可以很方便地提取出 HTML 或 XML 标签中的内容,实在是方便,这一节就让我们一起来感受一下 Beautiful Soup 的强大吧。
1. Beautiful Soup 的简介
简单来说,Beautiful Soup 是 python 的一个库,最主要的功能是从网页抓取数据。官方解释如下:
Beautiful Soup 提供一些简单的、python 式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。 Beautiful Soup 自动将输入文档转换为 Unicode 编码,输出文档转换为 utf-8 编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup 就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。 Beautiful Soup 已成为和 lxml、html6lib 一样出色的 python 解释器,为用户灵活地提供不同的解析策略或强劲的速度。
废话不多说,我们来试一下吧~
2. Beautiful Soup 安装
Beautiful Soup 3 目前已经停止开发,推荐在现在的项目中使用 Beautiful Soup 4,不过它已经被移植到 BS4 了,也就是说导入时我们需要 import bs4 。所以这里我们用的版本是 Beautiful Soup 4.3.2 (简称 BS4),另外据说 BS4 对 Python3 的支持不够好,不过我用的是 Python2.7.7,如果有小伙伴用的是 Python3 版本,可以考虑下载 BS3 版本。 可以利用 pip 或者 easy_install 来安装,以下两种方法均可
1 | easy_install beautifulsoup4 |
如果想安装最新的版本,请直接下载安装包来手动安装,也是十分方便的方法。在这里我安装的是 Beautiful Soup 4.3.2 Beautiful Soup 3.2.1Beautiful Soup 4.3.2 下载完成之后解压 运行下面的命令即可完成安装
1 | sudo python setup.py install |
然后需要安装 lxml
1 | easy_install lxml |
另一个可供选择的解析器是纯 Python 实现的 html5lib , html5lib 的解析方式与浏览器相同,可以选择下列方法来安装 html5lib:
1 | easy_install html5lib |
Beautiful Soup 支持 Python 标准库中的 HTML 解析器,还支持一些第三方的解析器,如果我们不安装它,则 Python 会使用 Python 默认的解析器,lxml 解析器更加强大,速度更快,推荐安装。
<thead”>
解析器
使用方法
优势
劣势
Python 标准库
BeautifulSoup(markup, “html.parser”)
- Python 的内置标准库
- 执行速度适中
- 文档容错能力强
- Python 2.7.3 or 3.2.2) 前 的版本中文档容错能力差
lxml HTML 解析器
BeautifulSoup(markup, “lxml”)
- 速度快
- 文档容错能力强
- 需要安装 C 语言库
lxml XML 解析器
BeautifulSoup(markup, [“lxml”, “xml”])BeautifulSoup(markup, “xml”)
- 速度快
- 唯一支持 XML 的解析器
- 需要安装 C 语言库
html5lib
BeautifulSoup(markup, “html5lib”)
- 最好的容错性
- 以浏览器的方式解析文档
- 生成 HTML5 格式的文档
- 速度慢
- 不依赖外部扩展
3. 开启 Beautiful Soup 之旅
在这里先分享官方文档链接,不过内容是有些多,也不够条理,在此本文章做一下整理方便大家参考。 官方文档
4. 创建 Beautiful Soup 对象
首先必须要导入 bs4 库
1 | from bs4 import BeautifulSoup |
我们创建一个字符串,后面的例子我们便会用它来演示
1 | html = """ |
创建 beautifulsoup 对象
1 | soup = BeautifulSoup(html) |
另外,我们还可以用本地 HTML 文件来创建对象,例如
1 | soup = BeautifulSoup(open('index.html')) |
上面这句代码便是将本地 index.html 文件打开,用它来创建 soup 对象 下面我们来打印一下 soup 对象的内容,格式化输出
1 | print soup.prettify() |
以上便是输出结果,格式化打印出了它的内容,这个函数经常用到,小伙伴们要记好咯。
5. 四大对象种类
Beautiful Soup 将复杂 HTML 文档转换成一个复杂的树形结构,每个节点都是 Python 对象,所有对象可以归纳为 4 种:
- Tag
- NavigableString
- BeautifulSoup
- Comment
下面我们进行一一介绍
(1)Tag
Tag 是什么?通俗点讲就是 HTML 中的一个个标签,例如
1 | <title>The Dormouse's story</title> |
上面的 title a 等等 HTML 标签加上里面包括的内容就是 Tag,下面我们来感受一下怎样用 Beautiful Soup 来方便地获取 Tags 下面每一段代码中注释部分即为运行结果
1 | print soup.title |
我们可以利用 soup 加标签名轻松地获取这些标签的内容,是不是感觉比正则表达式方便多了?不过有一点是,它查找的是在所有内容中的第一个符合要求的标签,如果要查询所有的标签,我们在后面进行介绍。 我们可以验证一下这些对象的类型
1 | print type(soup.a) |
对于 Tag,它有两个重要的属性,是 name 和 attrs,下面我们分别来感受一下 name
1 | print soup.name |
soup 对象本身比较特殊,它的 name 即为 [document],对于其他内部标签,输出的值便为标签本身的名称。 attrs
1 | print soup.p.attrs |
在这里,我们把 p 标签的所有属性打印输出了出来,得到的类型是一个字典。 如果我们想要单独获取某个属性,可以这样,例如我们获取它的 class 叫什么
1 | print soup.p['class'] |
还可以这样,利用 get 方法,传入属性的名称,二者是等价的
1 | print soup.p.get('class') |
我们可以对这些属性和内容等等进行修改,例如
1 | soup.p['class']="newClass" |
还可以对这个属性进行删除,例如
1 | del soup.p['class'] |
不过,对于修改删除的操作,不是我们的主要用途,在此不做详细介绍了,如果有需要,请查看前面提供的官方文档
(2)NavigableString
既然我们已经得到了标签的内容,那么问题来了,我们要想获取标签内部的文字怎么办呢?很简单,用 .string 即可,例如
1 | print soup.p.string |
这样我们就轻松获取到了标签里面的内容,想想如果用正则表达式要多麻烦。它的类型是一个 NavigableString,翻译过来叫 可以遍历的字符串,不过我们最好还是称它英文名字吧。 来检查一下它的类型
1 | print type(soup.p.string) |
(3)BeautifulSoup
BeautifulSoup 对象表示的是一个文档的全部内容。大部分时候,可以把它当作 Tag 对象,是一个特殊的 Tag,我们可以分别获取它的类型,名称,以及属性来感受一下
1 | print type(soup.name) |
(4)Comment
Comment 对象是一个特殊类型的 NavigableString 对象,其实输出的内容仍然不包括注释符号,但是如果不好好处理它,可能会对我们的文本处理造成意想不到的麻烦。 我们找一个带注释的标签
1 | print soup.a |
运行结果如下
1 | <a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a> |
a 标签里的内容实际上是注释,但是如果我们利用 .string 来输出它的内容,我们发现它已经把注释符号去掉了,所以这可能会给我们带来不必要的麻烦。 另外我们打印输出下它的类型,发现它是一个 Comment 类型,所以,我们在使用前最好做一下判断,判断代码如下
1 | if type(soup.a.string)==bs4.element.Comment: |
上面的代码中,我们首先判断了它的类型,是否为 Comment 类型,然后再进行其他操作,如打印输出。
6. 遍历文档树
(1)直接子节点
要点:.contents .children 属性
.contents tag 的 .content 属性可以将 tag 的子节点以列表的方式输出
1 | print soup.head.contents |
输出方式为列表,我们可以用列表索引来获取它的某一个元素
1 | print soup.head.contents[0] |
.children 它返回的不是一个 list,不过我们可以通过遍历获取所有子节点。 我们打印输出 .children 看一下,可以发现它是一个 list 生成器对象
1 | print soup.head.children |
我们怎样获得里面的内容呢?很简单,遍历一下就好了,代码及结果如下
1 | for child in soup.body.children: |
(2)所有子孙节点
知识点:.descendants 属性
.descendants .contents 和 .children 属性仅包含 tag 的直接子节点,.descendants 属性可以对所有 tag 的子孙节点进行递归循环,和 children 类似,我们也需要遍历获取其中的内容。
1 | for child in soup.descendants: |
运行结果如下,可以发现,所有的节点都被打印出来了,先生最外层的 HTML 标签,其次从 head 标签一个个剥离,以此类推。
1 | <html><head><title>The Dormouse's story</title></head> |
(3)节点内容
知识点:.string 属性
如果 tag 只有一个 NavigableString 类型子节点,那么这个 tag 可以使用 .string 得到子节点。如果一个 tag 仅有一个子节点,那么这个 tag 也可以使用 .string 方法,输出结果与当前唯一子节点的 .string 结果相同。 通俗点说就是:如果一个标签里面没有标签了,那么 .string 就会返回标签里面的内容。如果标签里面只有唯一的一个标签了,那么 .string 也会返回最里面的内容。例如
1 | print soup.head.string |
如果 tag 包含了多个子节点,tag 就无法确定,string 方法应该调用哪个子节点的内容,.string 的输出结果是 None
1 | print soup.html.string |
(4)多个内容
知识点: .strings .stripped_strings 属性
.strings 获取多个内容,不过需要遍历获取,比如下面的例子
1 | for string in soup.strings: |
.stripped_strings 输出的字符串中可能包含了很多空格或空行,使用 .stripped_strings 可以去除多余空白内容
1 | for string in soup.stripped_strings: |
(5)父节点
知识点: .parent 属性
1 | p = soup.p |
(6)全部父节点
知识点:.parents 属性
通过元素的 .parents 属性可以递归得到元素的所有父辈节点,例如
1 | content = soup.head.title.string |
(7)兄弟节点
知识点:.next_sibling .previous_sibling 属性
兄弟节点可以理解为和本节点处在统一级的节点,.next_sibling 属性获取了该节点的下一个兄弟节点,.previous_sibling 则与之相反,如果节点不存在,则返回 None 注意:实际文档中的 tag 的 .next_sibling 和 .previous_sibling 属性通常是字符串或空白,因为空白或者换行也可以被视作一个节点,所以得到的结果可能是空白或者换行
1 | print soup.p.next_sibling |
(8)全部兄弟节点
知识点:.next_siblings .previous_siblings 属性
通过 .next_siblings 和 .previous_siblings 属性可以对当前节点的兄弟节点迭代输出
1 | for sibling in soup.a.next_siblings: |
(9)前后节点
知识点:.next_element .previous_element 属性
与 .next_sibling .previous_sibling 不同,它并不是针对于兄弟节点,而是在所有节点,不分层次 比如 head 节点为
1 | <head><title>The Dormouse's story</title></head> |
那么它的下一个节点便是 title,它是不分层次关系的
1 | print soup.head.next_element |
(10)所有前后节点
知识点:.next_elements .previous_elements 属性
通过 .next_elements 和 .previous_elements 的迭代器就可以向前或向后访问文档的解析内容,就好像文档正在被解析一样
1 | for element in last_a_tag.next_elements: |
以上是遍历文档树的基本用法。
7. 搜索文档树
(1)find_all( name , attrs , recursive , text , **kwargs )
find_all () 方法搜索当前 tag 的所有 tag 子节点,并判断是否符合过滤器的条件 1)name 参数 name 参数可以查找所有名字为 name 的 tag, 字符串对象会被自动忽略掉 A. 传字符串 最简单的过滤器是字符串。在搜索方法中传入一个字符串参数,Beautiful Soup 会查找与字符串完整匹配的内容,下面的例子用于查找文档中所有的标签
1 | soup.find_all('b') |
B. 传正则表达式 如果传入正则表达式作为参数,Beautiful Soup 会通过正则表达式的 match () 来匹配内容。下面例子中找出所有以 b 开头的标签,这表示 和标签都应该被找到
1 | import re |
C. 传列表 如果传入列表参数,Beautiful Soup 会将与列表中任一元素匹配的内容返回。下面代码找到文档中所有标签和标签
1 | soup.find_all(["a", "b"]) |
D. 传 True True 可以匹配任何值,下面代码查找到所有的 tag, 但是不会返回字符串节点
1 | for tag in soup.find_all(True): |
E. 传方法 如果没有合适过滤器,那么还可以定义一个方法,方法只接受一个元素参数 [4] , 如果这个方法返回 True 表示当前元素匹配并且被找到,如果不是则反回 False 下面方法校验了当前元素,如果包含 class 属性却不包含 id 属性,那么将返回 True:
1 | def has_class_but_no_id(tag): |
将这个方法作为参数传入 find_all () 方法,将得到所有
标签:
1 | soup.find_all(has_class_but_no_id) |
2)keyword 参数
注意:如果一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数当作指定名字 tag 的属性来搜索,如果包含一个名字为 id 的参数,Beautiful Soup 会搜索每个 tag 的”id” 属性
1 | soup.find_all(id='link2') |
如果传入 href 参数,Beautiful Soup 会搜索每个 tag 的”href” 属性
1 | soup.find_all(href=re.compile("elsie")) |
使用多个指定名字的参数可以同时过滤 tag 的多个属性
1 | soup.find_all(href=re.compile("elsie"), id='link1') |
在这里我们想用 class 过滤,不过 class 是 python 的关键词,这怎么办?加个下划线就可以
1 | soup.find_all("a", class_="sister") |
有些 tag 属性在搜索不能使用,比如 HTML5 中的 data-* 属性
1 | data_soup = BeautifulSoup('<div data-foo="value">foo!</div>') |
但是可以通过 find_all () 方法的 attrs 参数定义一个字典参数来搜索包含特殊属性的 tag
1 | data_soup.find_all(attrs={"data-foo": "value"}) |
3)text 参数 通过 text 参数可以搜搜文档中的字符串内容。与 name 参数的可选值一样,text 参数接受 字符串,正则表达式,列表,True
1 | soup.find_all(text="Elsie") |
4)limit 参数 find_all () 方法返回全部的搜索结构,如果文档树很大那么搜索会很慢。如果我们不需要全部结果,可以使用 limit 参数限制返回结果的数量。效果与 SQL 中的 limit 关键字类似,当搜索到的结果数量达到 limit 的限制时,就停止搜索返回结果。文档树中有 3 个 tag 符合搜索条件,但结果只返回了 2 个,因为我们限制了返回数量
1 | soup.find_all("a", limit=2) |
5)recursive 参数 调用 tag 的 find_all () 方法时,Beautiful Soup 会检索当前 tag 的所有子孙节点,如果只想搜索 tag 的直接子节点,可以使用参数 recursive=False . 一段简单的文档:
1 | <html> |
是否使用 recursive 参数的搜索结果:
1 | soup.html.find_all("title") |
(2)find( name , attrs , recursive , text , **kwargs )
它与 find_all () 方法唯一的区别是 find_all () 方法的返回结果是值包含一个元素的列表,而 find () 方法直接返回结果
(3)find_parents() find_parent()
find_all () 和 find () 只搜索当前节点的所有子节点,孙子节点等. find_parents () 和 find_parent () 用来搜索当前节点的父辈节点,搜索方法与普通 tag 的搜索方法相同,搜索文档搜索文档包含的内容
(4)find_next_siblings() find_next_sibling()
这 2 个方法通过 .next_siblings 属性对当 tag 的所有后面解析的兄弟 tag 节点进行迭代,find_next_siblings () 方法返回所有符合条件的后面的兄弟节点,find_next_sibling () 只返回符合条件的后面的第一个 tag 节点
(5)find_previous_siblings() find_previous_sibling()
这 2 个方法通过 .previous_siblings 属性对当前 tag 的前面解析的兄弟 tag 节点进行迭代,find_previous_siblings () 方法返回所有符合条件的前面的兄弟节点,find_previous_sibling () 方法返回第一个符合条件的前面的兄弟节点
(6)find_all_next() find_next()
这 2 个方法通过 .next_elements 属性对当前 tag 的之后的 tag 和字符串进行迭代,find_all_next () 方法返回所有符合条件的节点,find_next () 方法返回第一个符合条件的节点
(7)find_all_previous () 和 find_previous ()
这 2 个方法通过 .previous_elements 属性对当前节点前面的 tag 和字符串进行迭代,find_all_previous () 方法返回所有符合条件的节点,find_previous () 方法返回第一个符合条件的节点
注:以上(2)(3)(4)(5)(6)(7)方法参数用法与 find_all () 完全相同,原理均类似,在此不再赘述。
8.CSS 选择器
我们在写 CSS 时,标签名不加任何修饰,类名前加点,id 名前加 #,在这里我们也可以利用类似的方法来筛选元素,用到的方法是 soup.select(),返回类型是 list
(1)通过标签名查找
1 | print soup.select('title') |
(2)通过类名查找
1 | print soup.select('.sister') |
(3)通过 id 名查找
1 | print soup.select('#link1') |
(4)组合查找
组合查找即和写 class 文件时,标签名与类名、id 名进行的组合原理是一样的,例如查找 p 标签中,id 等于 link1 的内容,二者需要用空格分开
1 | print soup.select('p #link1') |
直接子标签查找
1 | print soup.select("head > title") |
(5)属性查找
查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到。
1 | print soup.select('a[class="sister"]') |
同样,属性仍然可以与上述查找方式组合,不在同一节点的空格隔开,同一节点的不加空格
1 | print soup.select('p a[href="http://example.com/elsie"]') |
以上的 select 方法返回的结果都是列表形式,可以遍历形式输出,然后用 get_text () 方法来获取它的内容。
1 | soup = BeautifulSoup(html, 'lxml') |
好,这就是另一种与 find_all 方法有异曲同工之妙的查找方法,是不是感觉很方便?
总结
本篇内容比较多,把 Beautiful Soup 的方法进行了大部分整理和总结,不过这还不算完全,仍然有 Beautiful Soup 的修改删除功能,不过这些功能用得比较少,只整理了查找提取的方法,希望对大家有帮助!小伙伴们加油! 熟练掌握了 Beautiful Soup,一定会给你带来太多方便,加油吧!
pyquery用CSS selector解析
如下为原文。
前言
你是否觉得 XPath 的用法多少有点晦涩难记呢? 你是否觉得 BeautifulSoup 的语法多少有些悭吝难懂呢? 你是否甚至还在苦苦研究正则表达式却因为少些了一个点而抓狂呢? 你是否已经有了一些前端基础了解选择器却与另外一些奇怪的选择器语法混淆了呢? 嗯,那么,前端大大们的福音来了,PyQuery 来了,乍听名字,你一定联想到了 jQuery,如果你对 jQuery 熟悉,那么 PyQuery 来解析文档就是不二之选!包括我在内! PyQuery 是 Python 仿照 jQuery 的严格实现。语法与 jQuery 几乎完全相同,所以不用再去费心去记一些奇怪的方法了。 天下竟然有这等好事?我都等不及了!
安装
有这等神器还不赶紧安装了!来!
1 | pip install pyquery |
还是原来的配方,还是熟悉的味道。
参考来源
本文内容参考官方文档,更多内容,大家可以去官方文档学习,毕竟那里才是最原汁原味的。 目前版本 1.2.4 (2016/3/24) 官方文档
简介
pyquery allows you to make jquery queries on xml documents. The API is as much as possible the similar to jquery. pyquery uses lxml for fast xml and html manipulation. This is not (or at least not yet) a library to produce or interact with javascript code. I just liked the jquery API and I missed it in python so I told myself “Hey let’s make jquery in python”. This is the result. It can be used for many purposes, one idea that I might try in the future is to use it for templating with pure http templates that you modify using pyquery. I can also be used for web scrapping or for theming applications with Deliverance.
pyquery 可让你用 jQuery 的语法来对 xml 进行操作。这 I 和 jQuery 十分类似。如果利用 lxml,pyquery 对 xml 和 html 的处理将更快。 这个库不是(至少还不是)一个可以和 JavaScript 交互的代码库,它只是非常像 jQuery API 而已。
初始化
在这里介绍四种初始化方式。 (1)直接字符串
1 | from pyquery import PyQuery as pq |
pq 参数可以直接传入 HTML 代码,doc 现在就相当于 jQuery 里面的 $ 符号了。 (2)lxml.etree
1 | from lxml import etree |
可以首先用 lxml 的 etree 处理一下代码,这样如果你的 HTML 代码出现一些不完整或者疏漏,都会自动转化为完整清晰结构的 HTML 代码。 (3)直接传 URL
1 | from pyquery import PyQuery as pq |
这里就像直接请求了一个网页一样,类似用 urllib2 来直接请求这个链接,得到 HTML 代码。 (4)传文件
1 | from pyquery import PyQuery as pq |
可以直接传某个路径的文件名。
快速体验
现在我们以本地文件为例,传入一个名字为 hello.html 的文件,文件内容为
1 | <div> |
编写如下程序
1 | from pyquery import PyQuery as pq |
运行结果
1 | <ul> |
看,回忆一下 jQuery 的语法,是不是运行结果都是一样的呢? 在这里我们注意到了一点,PyQuery 初始化之后,返回类型是 PyQuery,利用了选择器筛选一次之后,返回结果的类型依然还是 PyQuery,这简直和 jQuery 如出一辙,不能更赞!然而想一下 BeautifulSoup 和 XPath 返回的是什么?列表!一种不能再进行二次筛选(在这里指依然利用 BeautifulSoup 或者 XPath 语法)的对象! 然而比比 PyQuery,哦我简直太爱它了!
属性操作
你可以完全按照 jQuery 的语法来进行 PyQuery 的操作。
1 | from pyquery import PyQuery as pq |
运行结果
1 | hello |
再来一发
1 | from pyquery import PyQuery as pq |
运行结果
1 | <p id="hello" class="hello beauty"/> |
依旧是那么优雅与自信! 在这里我们发现了,这是一连串的操作,而 p 是一直在原来的结果上变化的。 因此执行上述操作之后,p 本身也发生了变化。
DOM 操作
同样的原汁原味的 jQuery 语法
1 | from pyquery import PyQuery as pq |
运行结果
1 | <p id="hello" class="hello"> check out <a href="http://reddit.com/r/python"><span>reddit</span></a></p> |
这不需要多解释了吧。 DOM 操作也是与 jQuery 如出一辙。
遍历
遍历用到 items 方法返回对象列表,或者用 lambda
1 | from pyquery import PyQuery as pq |
运行结果
1 | first item |
不过最常用的还是 items 方法
网页请求
PyQuery 本身还有网页请求功能,而且会把请求下来的网页代码转为 PyQuery 对象。
1 | from pyquery import PyQuery as pq |
感受一下,GET,POST,样样通。
Ajax
PyQuery 同样支持 Ajax 操作,带有 get 和 post 方法,不过不常用,一般我们不会用 PyQuery 来做网络请求,仅仅是用来解析。 PyQueryAjax
API
最后少不了的,API 大放送。 API 原汁原味最全的 API,都在里面了!如果你对 jQuery 语法不熟,强烈建议先学习下 jQuery,再回来看 PyQuery,你会感到异常亲切!
结语
用完了 PyQuery,我已经深深爱上了他! 你呢?
parsel是scrapy底层解析库
前文我们了解了 lxml 使用 XPath 和 pyquery 使用 CSS Selector 来提取页面内容的方法,不论是 XPath 还是 CSS Selector,对于绝大多数的内容提取都足够了,大家可以选择适合自己的库来做内容提取。
不过这时候有人可能会问:我能不能二者穿插j结合使用呀?有时候做内容提取的时候觉得 XPath 写起来比较方便,有时候觉得 CSS Selector 写起来比较方便,能不能二者结合起来使用呢?答案是可以的。
这里我们就介绍另一个解析库,叫做 parsel。
注意:如果你用过 Scrapy 框架(后文会介绍)的话,你会发现 parsel 的 API 和 Scrapy 选择器的 API 极其相似,这是因为 Scrapy 的选择器就是基于 parsel 做了二次封装,因此学会了这个库的用法,后文 Scrapy 选择器的用法就融会贯通了。
1. 介绍
parsel 这个库可以对 HTML 和 XML 进行解析,并支持使用 XPath 和 CSS Selector 对内容进行提取和修改,同时它还融合了正则表达式提取的功能。功能灵活而又强大,同时它也是 Python 最流行爬虫框架 Scrapy 的底层支持。
2. 准备工作
在本节开始之前,请确保已经安装好了 parsel 库,如尚未安装,可以使用 pip3 进行安装即可:
1 | pip3 install parsel |
更详细的安装说明可以参考:https://setup.scrape.center/parsel。
安装好之后,我们便可以开始本节的学习了。
3. 初始化
首先我们还是用上一节的示例 HTML,声明 html 变量如下:
1 | html = ''' |
接着,一般我们会用 parsel 的 Selector 这个类来声明一个 Selector 对象,写法如下:
1 | from parsel import Selector |
这里我们创建了一个 Selector 对象,传入了 text 参数,内容就是刚才声明的 HTML 字符串,赋值为 selector 变量。
有了 Selector 对象之后,我们可以使用 css 和 xpath 方法分别传入 CSS Selector 和 XPath 进行内容的提取,比如这里我们提取 class 包含 item-0 的节点,写法如下:
1 | items = selector.css('.item-0') |
我们先用 css 方法进行了节点提取,输出了提取结果的长度和内容,xpath 方法也是一样的写法,运行结果如下:
1 | 3 <class 'parsel.selector.SelectorList'> [<Selector xpath="descendant-or-self::*[@class and contains(concat(' ', normalize-space(@class), ' '), ' item-0 ')]" data='<li class="item-0">first item</li>'>, <Selector xpath="descendant-or-self::*[@class and contains(concat(' ', normalize-space(@class), ' '), ' item-0 ')]" data='<li class="item-0 active"><a href="li...'>, <Selector xpath="descendant-or-self::*[@class and contains(concat(' ', normalize-space(@class), ' '), ' item-0 ')]" data='<li class="item-0"><a href="link5.htm...'>] |
可以看到两个结果都是 SelectorList 对象,它其实是一个可迭代对象。另外可以用 len 方法获取它的长度,都是 3,提取结果代表的节点其实也是一样的,都是第 1、3、5 个 li 节点,每个节点还是以 Selector 对象的形式返回了,其中每个 Selector 对象的 data 属性里面包含了提取节点的 HTML 代码。
不过这里可能大家有个疑问,第一次我们不是用 css 方法来提取的节点吗?为什么结果中的 Selector 对象还输出了 xpath 属性而不是 css 属性呢?这是因为 css 方法背后,我们传入的 CSS Selector 首先被转成了 XPath,XPath 才真正被用作节点提取。其中 CSS Selector 转换为 XPath 这个过程是在底层用 cssselect 这个库实现的,比如 .item-0
这个 CSS Selector 转换为 XPath 的结果就是 descendant-or-self::*[@class and contains(concat(' ', normalize-space(@class), ' '), ' item-0 ')]
,因此输出的 Selector 对象有了 xpath 属性了。不过这个大家不用担心,这个对提取结果是没有影响的,仅仅是换了一个表示方法而已。
4. 提取文本
好,既然刚才提取的结果是一个可迭代对象 SelectorList,那么要获取提取到的所有 li 节点的文本内容就要对结果进行遍历了,写法如下:
1 | from parsel import Selector |
这里我们遍历了 items 变量,赋值为 item,那么这里 item 又变成了一个 Selector 对象,那么此时我们又可以调用其 css 或 xpath 方法进行内容提取了,比如这里我们就用 .//text()
这个 XPath 写法提取了当前节点的所有内容,此时如果不再调用其他方法,其返回结果应该依然为 Selector 构成的可迭代对象 SelectorList。SelectorList 有一个 get 方法,get 方法可以将 SelectorList 包含的 Selector 对象中的内容提取出来。
运行结果如下:
1 | first item |
这里 get 方法的作用是从 SelectorList 里面提取第一个 Selector 对象,然后输出其中的结果。
我们再看一个实例:
1 | result = selector.xpath('//li[contains(@class, "item-0")]//text()').get() |
输出结果如下:
1 | first item |
其实这里我们使用 //li[contains(@class, "item-0")]//text()
选取了所有 class 包含 item-0 的 li 节点的文本内容。应该来说,返回结果 SelectorList 应该对应三个 li 对象,而这里 get 方法仅仅返回了第一个 li 对象的文本内容,因为其实它会只提取第一个 Selector 对象的结果。
那有没有能提取所有 S ,elector 的对应内容的方法呢?有,那就是 getall 方法。
所以如果要提取所有对应的 li 节点的文本内容的话,写法可以改写为如下内容:
1 | result = selector.xpath('//li[contains(@class, "item-0")]//text()').getall() |
输出结果如下:
1 | ['first item', 'third item', 'fifth item'] |
这时候,我们就能得到列表类型结果了,和 Selector 对象是一一对应的。
因此,如果要提取 SelectorList 里面对应的结果,可以使用 get 或 getall 方法,前者会获取第一个 Selector 对象里面的内容,后者会依次获取每个 Selector 对象对应的结果。
另外上述案例中,xpath 方法改写成 css 方法,可以这么实现:
1 | result = selector.css('.item-0 *::text').getall() |
这里 *
用来提取所有子节点(包括纯文本节点),提取文本需要再加上::text
,最终的运行结果是一样的。
到这里我们就简单了解了文本提取的方法。
5. 提取属性
刚才我们演示了 HTML 中文本的提取,直接在 XPath 中加入 //text()
即可,那提取属性怎么做呢?类似的方式,也直接在 XPath 或者 CSS Selector 中表示出来就好了。
比如我们提取第三个 li 节点内部的 a 节点的 href 属性,写法如下:
1 | from parsel import Selector |
这里我们实现了两种写法,分别用 css 和 xpath 方法实现。我们根据同时包含 item-0 和 active 这两个 class 为依据来选取第三个 li 节点,然后进一步选取了里面的 a 节点,对于 CSS Selector,选取属性需要加 ::attr()
并传入对应的属性名称来选取,对于 XPath,直接用 /@
再加属性名称即可选取。最后统一用 get 方法提取结果即可。
运行结果如下:
1 | link3.html |
可以看到两种方法都正确提取到了对应的 href 属性。
6. 正则提取
除了常用的 css 和 xpath 方法,Selector 对象还提供了正则表达式提取方法,我们用一个实例来了解下:
1 | from parsel import Selector |
这里我们先用 css 方法提取了所有 class 包含 item-0 的节点,然后使用 re 方法,传入了 link.*
,用来匹配包含 link 的所有结果。
运行结果如下:
1 | ['link3.html"><span class="bold">third item</span></a></li>', 'link5.html">fifth item</a></li>'] |
可以看到,re 方法在这里遍历了所有提取到的 Selector 对象,然后根据传入的正则表达式查找出符合规则的节点源码并以列表的形式返回。
当然如果在调用 css 方法时已经提取了进一步的结果,比如提取了节点文本值,那么 re 方法就只会针对节点文本值进行提取:
1 | from parsel import Selector |
运行结果如下:
1 | ['first item', 'third item', 'fifth item'] |
另外我们也可以利用 re_first 方法来提取第一个符合规则的结果:
1 | from parsel import Selector |
这里调用了 re_first 方法,这里提取的是被 span 标签包含的文本值,提取结果用小括号括起来表示一个提取分组,最后输出的结果就是小括号部分对应的结果,运行结果如下:
1 | third item |
通过这几个例子我们知道了正则匹配的一些使用方法,re 对应多个结果,re_first 对应单个结果,可以在不同情况下选择对应的方法进行提取。
7. 总结
parsel 是一个融合了 XPath、CSS Selector 和正则表达式的提取库,功能强大又灵活,建议好好学习一下,同时也可以为后文学习 Scrapy 框架打下基础,有关 parsel 更多的用法可以参考其官方文档:https://parsel.readthedocs.io/。