博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
[学习笔记]Beautiful Soup语法基本使用
阅读量:4147 次
发布时间:2019-05-25

本文共 2748 字,大约阅读时间需要 9 分钟。

1. Beautiful_Soup语法

Beautiful_Soup语法

find all搜索的是全部节点,find搜索的是满足条件的第一个节点

2.获取网页信息

获取网页信息

思路如下

#  Python # 根据 HTML 网页字符串创建 BeautifulSoup 对象soup = BeautifulSoup(    html_doc,  # HTML 文档字符串    'html.parser',  # HTML 解析器    from_encoding='utf8')  # HTML 文档的编码# 查找所有标签为 a 的节点soup.find_all('a')# 查找所有标签为 a,链接符合 /view/123.html 形式的节点soup.find_all('a', href='/view/123.htm')soup.find_all('a', href=re.compile(r'/view/\d+\.htm'))# 查找所有标签为div,class,为 abc, 文字为 Python 的节点soup.find_all('div', class_='abc', string='Python')# 得到节点 Python# 获取查找到的节点的标签名称node.name# 获取查找到的节点的href 属性node['href']# 获取查找到的节点的链接文字node.get_text()

3.编码

3.1 材料准备

html_doc = """The Dormouse's story

The Dormouse's story

Once upon a time there were three little sisters; and their names wereElsie,Lacie andTillie;and they lived at the bottom of a well.

...

"""

3.2 解析材料数据

运行示例

soup = BeautifulSoup(html_doc, "html.parser", from_encoding='utf8')print("获取所有的链接")links = soup.find_all('a')for link in links:    print(link.name, link['href'], link.get_text())

运行结果

获取所有的链接a http://example.com/elsie Elsiea http://example.com/lacie Laciea http://example.com/tillie Tillie

获取单一链接数据

print("获取 http://example.com/lacie 的链接")link_node = soup.find('a', href="http://example.com/lacie")print(link_node.name, link_node['href'], link_node.get_text())

运行示例

获取 http://example.com/lacie 的链接a http://example.com/lacie Lacie

使用正则表达式

print("正则表达式")link_node = soup.find('a', href=re.compile(r'sie'))print(link_node.name, link_node['href'], link_node.get_text())

运行结果

正则表达式a http://example.com/elsie Elsie

根据 p 段落 class 的内容

print("根据 p 段落 class 的内容")# class_ 需要加下划线p_node = soup.find('p', class_="title")print(p_node.name, p_node.get_text())
根据 p 段落 class 的内容p The Dormouse's story

3.3 完整运行示例

# coding:utf8from bs4 import BeautifulSoupimport rehtml_doc = """The Dormouse's story

The Dormouse's story

Once upon a time there were three little sisters; and their names wereElsie,Lacie andTillie;and they lived at the bottom of a well.

...

"""soup = BeautifulSoup(html_doc, "html.parser", from_encoding='utf8')print("获取所有的链接")links = soup.find_all('a')for link in links: print(link.name, link['href'], link.get_text())print("获取 http://example.com/lacie 的链接")link_node = soup.find('a', href="http://example.com/lacie")print(link_node.name, link_node['href'], link_node.get_text())print("正则表达式")link_node = soup.find('a', href=re.compile(r'sie'))print(link_node.name, link_node['href'], link_node.get_text())print("根据 p 段落 class 的内容")# class_ 需要加下划线p_node = soup.find('p', class_="title")print(p_node.name, p_node.get_text())

运行结果

a http://example.com/lacie Laciea http://example.com/tillie Tillie获取 http://example.com/lacie 的链接a http://example.com/lacie Lacie正则表达式a http://example.com/elsie Elsie根据 p 段落 class 的内容p The Dormouse's story
你可能感兴趣的文章
使用Tomcat+腾讯云主机把你的项目发布到外网上
查看>>
servlet的执行原理与生命周期
查看>>
Java内存模型与Java线程的实现原理
查看>>
深入理解Java内存模型
查看>>
Windows下Redis的安装使用
查看>>
cmd命令行大全 dos命令 cmd命令整理
查看>>
TCP连接状态详解及TIME_WAIT过多的解决方法
查看>>
分布式Web服务器架构
查看>>
lvs与nginx区别
查看>>
大数据认知阶段——如何学习大数据相关技术
查看>>
Mybatis逆向工程的使用方法
查看>>
更换mysql-connector-java-6.0.5jar包后程序出现的两个异常及解决方法
查看>>
SpringMVC注解@RequestParam全面解析
查看>>
TreeMap的put()和delete()详解
查看>>
java.util.concurrent包下的几个常用类
查看>>
struts2的核心和工作原理
查看>>
hibernate工作原理及作用
查看>>
foreach遍历list删除元素一定会报错?
查看>>
数据库SQL优化大总结之 百万级数据库优化方案
查看>>
阿里面经最新
查看>>