爬虫3:re正则表达式获取数据

news/2024/10/4 7:29:25/

在上一章中,我们基本上掌握了抓取整个网页的基本技能.但是呢,大多数情况下,我们并不需要整个网页的内容,只是 需要那么一小部分,怎么办呢?这就涉及到了数据提取的问题.
本课程中,提供三种解析方式: 1.re解析 2.bs4解析 3.xpath解析
这三种方式可以混合进行使用,完全以结果做导向,只要能拿到你想要的数据.用什么方案并不重要,当你掌握了这些之 后.再考虑性能的问题.

re模块

import re# findall:找到所有匹配的内容
lst = re.findall(r'\d+', '123abc456')  # ['123', '456']# finditer: 匹配字符串中所有的内容,返回一个迭代器,迭代器中拿到内容需要.group()
it = re.finditer(r'\d+', '123abc456')
# for i in it:
#     print(i.group())  # 123  456# search返回结果是match对象,需要.group()获取内容,找到第一个结果
s = re.search(r'\d+', 'abc123def456')
# print(s.group())# match是从头开始匹配,如果开头没有匹配的内容,返回None;就是固定第一个字符开始匹配
s = re.match(r'\d+', '123abc456')# 预加载正则表达式
obj = re.compile(r'\d+')ret = obj.finditer('abc123def456')# (?P<分组名字>正则表达式) 可以单独从正则匹配的内容中提取出想要的内容
obj = re.compile(r'<div class=\'(.*?)\'>(?P<wahaha>.*?)</div>', re.S)
res = obj.finditer('<div class=\'123\'>哈哈哈哈</div>')
for it in res:print(it.group('wahaha'))

经典豆瓣电影练手

import requests
import reurl = 'https://movie.douban.com/top250'
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 Edg/126.0.0.0",}
resp = requests.get(url, headers=headers)page_content = resp.textobj = re.compile(r'<li>.*?<div class="item">.*?<span class="title">(?P<name>.*?)</span>.*?'r'<p class="">.*?<br>.*?(?P<year>.*?)&nbsp.*?<span class="rating_num" property="v:average">'r'(?P<score>.*?)</span>.*?<span>(?P<num>.*?)人评价</span>', re.S)result = obj.finditer(page_content)
data = []
for it in result:ele = []ele.append(it.group('name'))ele.append(it.group('year').strip())ele.append(it.group('score'))ele.append(it.group('num'))data.append(ele)dic = it.groupdict()  # 变字典方便写入文件print(data)
resp.close()

电影天堂,代码需要小小修改,有些问题

import requests# import urllib.request
# import http.cookiejar# filename = 'cookie.txt'
#
# cookie = http.cookiejar.MozillaCookieJar(filename)
#
# handler = urllib.request.HTTPCookieProcessor(cookie)
#
# opener = urllib.request.build_opener(handler)
# response = opener.open("https://www.dytt89.com")
# cookie.save(ignore_discard=True, ignore_expires=True)domain = 'https://www.dytt89.com'headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 Edg/126.0.0.0","cookie":'xxx'
}resp = requests.get(domain,headers=headers, verify=False)
resp.encoding = 'gb2312' # 指定字符集
# 去掉安全验证result1 = obj1.finditer(resp.text)
child_href_list =[]
for it in result1:ul = it.group(m)result2 = obj2.finditer(ul)for itt in result2:child_href = domain + itt.group(hme).strip("/")child_href_list.append(child_href)#把子页面ứ报保存起来# 再次访问子页面爬
resp.close()

http://www.ppmy.cn/news/1524528.html

相关文章

【2025】基于Python的空气质量综合分析系统的设计与实现(源码+文档+调试+答疑)

博主介绍&#xff1a; ✌我是阿龙&#xff0c;一名专注于Java技术领域的程序员&#xff0c;全网拥有10W粉丝。作为CSDN特邀作者、博客专家、新星计划导师&#xff0c;我在计算机毕业设计开发方面积累了丰富的经验。同时&#xff0c;我也是掘金、华为云、阿里云、InfoQ等平台…

Excel如何设置不能复制里面内容?学学工作表保护功能

大家好&#xff0c;这里是效率办公指南&#xff01; &#x1f4ca; 在这个信息爆炸的时代&#xff0c;数据安全变得尤为重要。Excel文件中的数据往往包含了敏感信息&#xff0c;如何确保这些数据不被未经授权的人复制&#xff0c;成为了我们日常工作中的一个挑战。今天&#x…

【Linux 从基础到进阶】Ansible自动化运维工具使用

Ansible自动化运维工具使用 Ansible 是一款开源的自动化运维工具,采用无代理架构(agentless),基于 SSH 连接进行管理,具有简单易用、灵活强大、可扩展性高等特点。它广泛用于服务器管理、应用部署、配置管理等任务。本文将介绍 Ansible 的安装、基本使用方法及一些实际运…

uniapp+vue3实现小程序和h5解压线上压缩包以及如何访问解压后的视频地址

安装jszip插件 npm install jszip 对应功能实现和逻辑处理&#xff1a; <script setup>import { onMounted, reactive, ref } from vueimport { onHide, onUnload } from dcloudio/uni-appimport JSZip from jsziplet videoSrc ref() // 视频地址// 创建JSZip实例con…

基于 PyTorch 和 TensorFlow 的口罩检测与人脸识别系统

在后疫情时代&#xff0c;口罩检测成为了人脸识别系统的一个重要功能。如何在戴口罩的情况下准确识别身份&#xff0c;是一个技术难点。本文将介绍如何利用 PyTorch 和 TensorFlow 实现一个包含口罩检测功能的简单人脸识别系统&#xff0c;结合了Facenet 模型用于特征提取&…

南卡OE PRO2开放式耳机发布,引领开放式音频技术新革命

NANK南卡品牌作为国内的音频大牌&#xff0c;在开放式耳机领域不断的探索尝试&#xff0c;此次新上线的南卡OE Pro2开放式耳机更是集合了南卡整个品牌的多项核心技术和多年心血&#xff0c;即将成为这个领域的尖端产品&#xff0c;这也是南卡开发出新蓝海的象征&#xff0c;预示…

香港科技大学工学2025/2026年度硕士研究生(MSc)项目招生宣讲会

&#x1f514;香港科技大学工学院2025/2026年度硕士研究生&#xff08;MSc&#xff09;项目招生宣讲会 &#x1f559;时间&#xff1a;2024年9月25日&#xff08;星期三&#xff09;19:00 &#x1f3e0;地点&#xff1a;华南理工大学五山校区33号楼403室 &#x1f386;2024Ti…

GEE 案例——如何利用CHIRPS/DAILY影像数据进行时序降水数据分析?

目录 简介 数据 函数 ui.Chart.image.series(imageCollection, region, reducer, scale, xProperty) Arguments: Returns: ui.Chart 代码 结果 简介 这里我们利用2000年-2023年的CHIRPS/DAILY数据来实现降水数据的长时序分析。 数据 UCSB-CHG/CHIRPS/DAILY是一个基于…