lxml基于libxml2和libxslt,性能强,支持XPath与ElementTree API,可自动修复html,适用于网页抓取与数据提取。1. 安装:pip install lxml;2. 解析XML:etree.parse()读取文件,findall与find定位元素;3. 解析HTML:html.fromstring()处理不规范HTML,结合requests获取页面内容;4. 使用XPath提取数据,如//div、//a[@href]、//img/@src等;5. lxml与requests、XPath组合,构成高效解析方案。

python的lxml库是处理XML和HTML数据的强大工具,它基于c语言编写的libxml2和libxslt库,性能高、功能全,广泛用于网页抓取、数据提取和配置文件解析等场景。本文将介绍如何使用lxml高效解析HTML和XML文档。
安装lxml库
在使用前需要先安装lxml:
pip install lxml
安装完成后即可导入并使用。lxml支持XPath、ElementTree API,能自动修复不规范的HTML结构,特别适合解析真实世界中的网页内容。
解析XML文档
使用lxml解析XML非常简单,可通过etree.fromstring()或etree.parse()加载XML字符串或文件。
立即学习“Python免费学习笔记(深入)”;
示例XML内容(保存为data.xml):
<?xml version="1.0"?> <books> <book id="1"> <title>Python入门</title> <author>张三</author> </book> <book id="2"> <title>数据分析实战</title> <author>李四</author> </book> </books>
解析代码:
from lxml import etree
tree = etree.parse(‘data.xml’)
root = tree.getroot()
for book in root.findall(‘book’):
title = book.find(‘title’).text
author = book.find(‘author’).text
book_id = book.get(‘id’)
print(f”ID: {book_id}, 标题: {title}, 作者: {author}”)
解析HTML文档
HTML通常结构不规范,lxml的html模块能自动修复标签,更适合处理网页内容。
from lxml import html
import requests
# 获取网页内容
response = requests.get(“https://example.com”)
doc = html.fromstring(response.content)
# 使用XPath提取标题
titles = doc.xpath(‘//h1/text()’)
links = doc.xpath(‘//a/@href’)
print(titles)
print(links)
上面代码通过requests获取页面,用html.fromstring()解析,并使用XPath快速定位元素。XPath语法灵活,支持按标签、属性、位置等多种方式筛选节点。
常用XPath技巧
XPath是lxml的核心查询语言,掌握基本语法可大幅提升解析效率。
- //div:选择所有div元素,无论层级
- //a[@href]:选择包含href属性的a标签
- //p[contains(text(), “Python”)]:选择文本包含“Python”的p标签
- //img/@src:提取所有图片的src地址
- //ul/li[1]:选择第一个li子元素
这些表达式结合lxml使用,可以精准提取所需数据。
基本上就这些。lxml配合requests和XPath,构成了Python中高效解析HTML/XML的标准组合。只要熟悉基本API和XPath语法,就能轻松应对大多数结构化数据提取任务。