使用BeautifulSoup库解析htm、xml文档

网友投稿 277 2022-12-01

使用BeautifulSoup库解析htm、xml文档

​​BeautifulSoup​​ 安装:

~/Desktop$ sudo pip install beautifulsoup4

测试:

from bs4 import BeautifulSoupif __name__ == "__main__": # 第一个参数是html文档文本,第二个参数是指定的解析器 soup = BeautifulSoup('

data

', 'html.parser') print(soup.prettify())

输出:

data

说明安装成功了。

Beautiful Soup库也叫bs4,Beautiful Soup库是解析 、遍历、维护 “标签树”的功能库。

Beautiful Soup库解析器:

解析器

使用方法

条件

bs4的HTML解析器

BeatifulSoup(mk,‘html.parser’)

pip install bs4

lxml的HTML解析器

BeatifulSoup(mk,‘lxml’)

pip install lxml

lxml的XML解析器

BeatifulSoup(mk,‘xml’)

pip install lxml

html5lib的解析器

BeatifulSoup(mk,‘html5lib’)

pip install html5lib

Beatiful Soup类的基本元素

基本元素

说明

Tag

标签,最基本的信息组织元素,分别用<>和</>标明开头和结尾。

Name

标签的名字,<p>…</p>的名字是‘p’,格式:<tag>.name

Attributes

标签的属性,字典形式组织,格式:<tag>.attrs

NavigableString

标签内非属性字符串,<>…</p> 中的字符串,格式:<tag>.string

Comment

标签内字符串的注释部分,一种特殊的Comment类型

示例:

import requestsfrom bs4 import BeautifulSoupdef handle_url(url): try: r = requests.get(" r.raise_for_status() if r.encoding == 'ISO-8859-1': r.encoding = r.apparent_encoding demo = r.text soup = BeautifulSoup(demo, 'html.parser') # a标签有很多个,但soup.a返回第一个 print(soup.a) # print(type(soup.a)) # 标签名a print(soup.a.name) # print(type(soup.a.name)) # 标签内的属性的字典,键值对 print(soup.a.attrs) # print(type(soup.a.attrs)) # 获取a标签的href属性值 print(soup.a.attrs['href']) # print(type(soup.a.attrs['href'])) # 标签的内容 print(soup.a.string) # a标签的父元素 print(soup.a.parent) except: print("fail fail fail")if __name__ == "__main__": url = " handle_url(url)

Beatiful Soup遍历HTML元素

Html具有树型结构,因此遍历有三种:下行遍历:

属性

说明

.contents

子节点的列表,将<tag> 所有儿子节点存入列表

.children

子节点的迭代类型,用于循环遍历儿子节点

.descendants

子孙节点的迭代类型,包含所有子孙节点 ,用于循环遍历

import requestsfrom bs4 import BeautifulSoupdef handle_url(url): try: r = requests.get(" r.raise_for_status() if r.encoding == 'ISO-8859-1': r.encoding = r.apparent_encoding demo = r.text soup = BeautifulSoup(demo, 'html.parser') print(soup.head) # head标签的儿子节点 print(soup.head.contents) # 是list列表类型 print(type(soup.head.contents)) # head有5个儿子节点 print(len(soup.head.contents)) # 取出head的第5个儿子节点 print(soup.head.contents[4]) # 使用children遍历儿子节点 for child in soup.head.children: print(child) # 使用descendants遍历子孙节点 for child in soup.head.descendants: print(child) except: print("fail fail fail")if __name__ == "__main__": url = " handle_url(url)

上行遍历:

属性

说明

.parent

节点的父亲标签

.parents

节点先辈的迭代类型,用于循环遍历先辈节点

import requestsfrom bs4 import BeautifulSoupdef handle_url(url): try: r = requests.get(" r.raise_for_status() if r.encoding == 'ISO-8859-1': r.encoding = r.apparent_encoding demo = r.text soup = BeautifulSoup(demo, 'html.parser') # html标签的父节点是它自己 print(soup.html.parent) # soup本身也是一种特殊的标签节点,它的父节点是None空 print(soup.parent) # title标签的父节点 print(soup.title.parent) # 遍历title标签的先辈节点 for parent in soup.title.parents: if parent is None: print(parent) else: print(parent.name) except: print("fail fail fail")if __name__ == "__main__": url = " handle_url(url)

平行遍历::必须发生在同一个父节点下

属性

说明

.next_sibling

返回按照 HTML文本顺序的下一个平等节点标签

.previous_sibling

返回按照 HTML文本顺序的上一个平等节点标签

.next_siblings

迭代类型,返回按照HTML文本顺序的后续所有平等节点标签

.previous_siblings

迭代类型,返回按照HTML文本顺序的前续所有平等节点标签

import requestsfrom bs4 import BeautifulSoupdef handle_url(url): try: r = requests.get(" r.raise_for_status() if r.encoding == 'ISO-8859-1': r.encoding = r.apparent_encoding demo = r.text soup = BeautifulSoup(demo, 'html.parser') # title的前一个平行节点 print(soup.title.previous_sibling) # link的下一个平行节点 print(soup.link.next_sibling) # 遍历meta标签的所有的后续平行节点 for sibling in soup.meta.next_siblings: print(sibling) # 遍历title标签的所有前续的平行节点 for sibling in soup.title.previous_siblings: print(sibling) except: print("fail fail fail")if __name__ == "__main__": url = " handle_url(url)

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:java 如何判断是否可以ping通某个地址
下一篇:有意义的命名
相关文章

 发表评论

暂时没有评论,来抢沙发吧~