当前位置: 首页 > news >正文

Python 网页爬虫原理及代理 IP 使用

目录

前言

一、Python 网页爬虫原理

二、Python 网页爬虫案例

步骤1:分析网页

步骤2:提取数据

步骤3:存储数据

三、使用代理 IP

四、总结


前言

随着互联网的发展,网络上的信息量变得越来越庞大。对于数据分析人员和研究人员来说,获取这些数据是一项重要的任务。Python 是一种高效的编程语言,广泛应用于 Web 开发和数据分析领域。Python 网页爬虫可以自动化地访问网站,并从中提取数据。本文将介绍 Python 网页爬虫的原理及代理 IP 的使用方法,并提供一个实例。

一、Python 网页爬虫原理

Python 是一种高效的编程语言,在 Web 开发和数据分析领域广受欢迎。Python 的优秀模块使其更加适合大规模数据处理和 Web 服务的编程。网络爬虫是 Python 开发者最常用的工具之一。

网络爬虫(Web Crawler)是一种自动化程序,可以模拟人类浏览器的行为,自动在互联网上搜索和获取信息。Python 网页爬虫通常包括以下几个步骤:

  1. URL 分析:Python 网页爬虫需要指定爬取的网站 URL。通过访问链接,爬虫程序会自动解析网页上的 HTML 内容,识别其中的超链接,进一步发现其他的链接,从而得到需要爬去的网站列表。
  2. 页面下载:Python 网页爬虫首先需要发起 HTTP 请求。一旦服务器接受 HTTP 请求,就会将需要浏览器呈现的页面以 HTML 码的形式返回。Python 网页爬虫需要使用库,如 requests、urllib 等,发起 HTTP 请求,下载页面数据。
  3. 内容解析:Python 网页爬虫通常使用解析库对数据进行解析。解析库可以提取特定标签、文本或属性,并将它们转换为 Python 数据类型,例如列表或字典。美丽汤(Beautiful Soup)是 Python 中最流行的解析库之一。
  4. 数据处理:Python 网页爬虫需要对数据进行处理和分析。Python 的数据分析库 pandas 和 NumPy 提供了各种处理和分析工具。爬虫程序可以使用这些工具来清洗和处理数据。

以上是 Python 网页爬虫的一般流程。下面,我们来结合实例对此进行进一步说明。

二、Python 网页爬虫案例

我们将以采集豆瓣电影 Top250 数据为例,详细介绍 Python 网页爬虫的实现方法。

步骤1:分析网页

在访问任何网页之前,我们需要了解该网页的结构和元素。在 Python 中,我们可以使用 requests 库访问网页并获取 HTML 标记。下面是示例代码:

import requestsurl = 'https://movie.douban.com/top250'
response = requests.get(url)
html = response.textprint(html)

在获取 HTML 标记后,我们可以使用 Beautiful Soup 库分析 HTML 页面。它提供了一种方便的方法来查找和提取 HTML 页面中的数据。下面是示例代码:

from bs4 import BeautifulSoupsoup = BeautifulSoup(html, 'html.parser')
print(soup.prettify()) #输出格式化的 HTML 代码

运行上面的代码,我们可以在控制台中看到美化后的 HTML 代码。

步骤2:提取数据

在分析网页后,我们需要提取有用的数据。在我们的示例中,我们将从豆瓣电影 Top250 中提取电影名称、评分、电影类型、导演和演员等信息。

# 获取标题信息
titles = [title.text for title in soup.select('div.hd a span')]
print(titles)# 获取评分信息
scores = [score.text for score in soup.select('div.star span.rating_num')]
print(scores)# 获取信息文本
lists = [list.text for list in soup.select('div.info div.bd p')]
print(lists)# 处理信息文本
directors = []
actors = []
for list in lists:temp_str = list.strip().split('\n')[0]index = temp_str.find('导演')if index != -1:directors.append(temp_str[index + 3:])actors.append(temp_str[:index - 1])else:directors.append('')actors.append(temp_str)
print(directors)
print(actors)

步骤3:存储数据

最后,我们需要将数据存储到文件中,以便进一步处理和分析。在 Python 中,我们可以使用 Pandas 库将数据存储到 CSV 文件中。

import pandas as pddata = {'电影名称': titles, '电影评分': scores, '导演': directors, '演员': actors}
df = pd.DataFrame(data)
print(df)df.to_csv('douban_movies.csv', index=False)

三、使用代理 IP

Python 网页爬虫通常需要使用代理 IP 来避免网站的反爬虫机制。代理 IP 是另一台服务器上的 IP 地址,可以隐藏我们的真实 IP 地址和位置,从而绕过网站的访问限制。在 Python 中,我们可以使用代理 IP 访问网站,以达到隐私保护的目的。

使用代理 IP 可以通过添加一些参数来实现。例如,我们可以在 requests 库中使用 proxies 参数来指定代理 IP:

proxies = {'http': 'http://user:<password>@<ip_address>:<port>','https': 'https://user:<password>@<ip_address>:<port>'}
response = requests.get(url, proxies=proxies)

上面的代码中,我们指定了 HTTP 和 HTTPS 协议的代理 IP。其中 user:password 是代理 IP 的用户名和密码,ip_address 和 port 是代理服务器的 IP 地址和端口号。

我们还可以使用 scrapy 框架来实现代理 IP 的使用。scrapy 框架提供了多种方法来设置和切换代理 IP。例如,我们可以在 scrapy 中使用下载器中间件来指定代理 IP,例如随机选择代理 IP:

import randomclass RandomProxyMiddleware(object):def __init__(self, proxy_list):self.proxy_list = proxy_list@classmethoddef from_crawler(cls, crawler):return cls(crawler.settings.getlist('PROXY_LIST'))def process_request(self, request, spider):proxy = random.choice(self.proxy_list)request.meta['proxy'] = proxy

上面的代码中,我们实现了一个名为 RandomProxyMiddleware 的中间件,该中间件随机选择一个代理 IP 作为请求的代理。代理 IP 列表可以在 scrapy 的设置文件中进行配置。

四、总结

Python 网页爬虫是一种强大的数据抓取和分析工具,可以从互联网上抓取大量数据,以便进行各种数据分析和挖掘。在本文中,我们介绍了 Python 网页爬虫的基本原理和使用方法,并提供了一个从豆瓣电影 Top250 中获取电影信息的示例。我们还介绍了如何使用代理 IP 避免网站的反爬虫机制。希望本文对 Python 网页爬虫的初学者有所帮助。

相关文章:

Python 网页爬虫原理及代理 IP 使用

目录 前言 一、Python 网页爬虫原理 二、Python 网页爬虫案例 步骤1&#xff1a;分析网页 步骤2&#xff1a;提取数据 步骤3&#xff1a;存储数据 三、使用代理 IP 四、总结 前言 随着互联网的发展&#xff0c;网络上的信息量变得越来越庞大。对于数据分析人员和研究人…...

失效的访问控制及漏洞复现

失效的访问控制(越权) 1. 失效的访问控制(越权) 1.1 OWASP TOP10 1.1.1 A5:2017-Broken Access Control 未对通过身份验证的用户实施恰当的访问控制。攻击者可以利用这些缺陷访问未经授权的功能或数据&#xff0c;例如&#xff1a;访问其他用户的帐户、查看敏感文件、修改其…...

MLOps:掌握机器学习部署:Docker、Kubernetes、Helm 现代 Web 框架

介绍&#xff1a; 在机器学习的动态世界中&#xff0c;从开发模型到将其投入生产的过程通常被认为是复杂且多方面的。 然而&#xff0c;随着 Docker、Kubernetes 等工具以及 FastAPI、Streamlit 和 Gradio 等用户友好的 Web 框架的出现&#xff0c;这一过程变得比以往更加简化…...

Python标识符命名规范

简单地理解&#xff0c;标识符就是一个名字&#xff0c;就好像我们每个人都有属于自己的名字&#xff0c;它的主要作用就是作为变量、函数、类、模块以及其他对象的名称。 Python 中标识符的命名不是随意的&#xff0c;而是要遵守一定的命令规则&#xff0c;比如说&#xff1a;…...

对 fastq 和 bam 进行 downsample

对 fastq 和 bam 进行 downsample 一、Fastq1、seqtk二、Bam1、samtools2、Picard DownsampleSam3、比较 并行采样模板 一、Fastq 1、seqtk Seqtk 是一种快速轻量级的工具&#xff0c;用于处理 FASTA 或 FASTQ 格式的序列。 它可以无缝解析 FASTA 和 FASTQ 文件&#xff0c;这…...

网络爬虫:如何有效的检测分布式爬虫

分布式爬虫是一种高效的爬虫方式&#xff0c;它可以将爬虫任务分配给多个节点同时执行&#xff0c;从而加快爬虫的速度。然而&#xff0c;分布式爬虫也容易被目标网站识别为恶意行为&#xff0c;从而导致IP被封禁。那么&#xff0c;如何有效地检测分布式爬虫呢&#xff1f;本文…...

elementUI可拖拉宽度抽屉

1&#xff0c;需求&#xff1a; 在elementUI的抽屉基础上&#xff0c;添加可拖动侧边栏宽度的功能&#xff0c;实现效果如下&#xff1a; 2&#xff0c;在原组件上添加自定义命令 <el-drawer v-drawerDrag"left" :visible.sync"drawerVisible" direc…...

OpenPCDet系列 | 8.4 nuScenes数据集数据调用和数据分析

文章目录 1. 对数据集遍历1.1 统计mini版本的nuScenes各模态数据和关键帧的数量1.2 单独遍历lidar模态数据1.3 遍历scene统计数据1.4 遍历sample统计数据1.5 遍历sample_data统计数据1.6 数据集的底层结构2. 对数据集可视化2.1 render_sample和render_sample_data2.2 nusc.rend…...

WeiTitlePopupWindow

目录 1 WeiTitlePopupWindow 1.1 // 设置可点击 1.2 // 设置弹窗外可点击 1.3 // 设置弹窗宽度和高度 1.4 // 设置弹窗布局界面 WeiTitlePopupWindow // 设置可点击setTouchable(true);...

qemu/kvm学习笔记

qemu/kvm架构 cpu虚拟化的示例 Reference: kvmtest.c [LWN.net] 主要步骤&#xff1a; QEMU通过/dev/kvm设备文件发起KVM_CREATE_VM ioctl&#xff0c;请求KVM创建一个虚拟机。KVM创建虚拟机相应的结构体&#xff0c;并为QEMU返回一个虚拟机文件描述符QEMU通过虚拟机文件描述…...

android 车载widget小部件部分详细源码实战开发-千里马车载车机framework开发实战课程

官网参考链接&#xff1a;https://developer.android.google.cn/develop/ui/views/appwidgets/overview 1、什么是小部件 App widgets are miniature application views that can be embedded in other applications (such as the home screen) and receive periodic updates…...

如何使用CSS画一个三角形

原理&#xff1a;其实就是规定元素的四个边框颜色及边框宽度&#xff0c;将元素宽高设置为0。如果要哪个方向的三角形&#xff0c;将对应其他三个方向的边框宽和颜色设置为0和透明transparent即可 1.元素设置边框&#xff0c;宽高&#xff0c;背景色 <style>.border {w…...

第15章_锁: (表级锁、页级锁、行锁、悲观锁、乐观锁、全局锁、死锁)

3.2 从数据操作的粒度划分&#xff1a;表级锁、页级锁、行锁 为了提高数据库并发度&#xff0c;每次锁定的数据范围越小越好&#xff0c;理论上每次只锁定当前操作的数据的方案会得到最大的并发度&#xff0c;但管理锁是很耗资源&#xff08;涉及获取、检查、释放锁等动作)。因…...

python音频转文字调用baidu

python音频转文字调用的是百度智能云的接口&#xff0c;因业务需求会涉及比较多数字&#xff0c;所以这里做了数字的处理&#xff0c;可根据自己的需求修改。 from flask import Flask, request, jsonify import requestsfrom flask_limiter import Limiterapp Flask(__name_…...

靶场溯源第二题

关卡描述&#xff1a;1. 网站后台登陆地址是多少&#xff1f;&#xff08;相对路径&#xff09; 首先这种确定的网站访问的都是http或者https协议&#xff0c;搜索http看看。关于http的就这两个信息&#xff0c;然后172.16.60.199出现最多&#xff0c;先过滤这个ip看看 这个很…...

mysql 的增删改查以及模糊查询、字符集语句的使用

一、mysql启动与登陆(windows下的mysql操作) 1.启动mysql服务 net start mysql81 2.登陆mysql mysql -uroot -p 3.查看所有数据库 show databases; 二、模糊查询&#xff08;like&#xff09; 1. _代表查询单个 2.%代表查询多个 3.查找所有含有schema的数据库&#xff1b;…...

Python Django框架中文教程:学习简单、灵活、高效的Web应用程序框架

概述: Python Django是一种流行的Web应用程序框架&#xff0c;被广泛应用于开发高效、可扩展的网站和Web应用程序。Django以其简单、灵活和高效而受到开发者们的青睐。它提供了强大的工具和功能&#xff0c;使开发过程更加容易和高效。 Django的主要目标是帮助开发者快速构建…...

Docker认识即安装

Docker及相关概念 Docker和虚拟机方式的区别&#xff1a;虚拟机技术是虚拟出一套硬件后&#xff0c;在其上运行一个完整的操作系统&#xff0c;在该系统上在运行所需应用进程&#xff1b;而容器内的应用进程是直接运行于宿主的内核&#xff0c;容器内没有自己的内核&#xff0…...

chrome 谷歌浏览器 导出插件拓展和导入插件拓展

给同事部署 微软 RPA时&#xff0c;需要用到对应的chrome浏览器插件&#xff1b;谷歌浏览器没有外网是不能直接下载拓展弄了半小时后才弄好&#xff0c;竟发现没有现成的教程&#xff0c;遂补充&#xff1b; 如何打包导出 谷歌浏览器 地址栏敲 chrome://extensions/在对应的地…...

fastjson漏洞批量检测工具

JsonExp 简介 版本&#xff1a;1.3.5 1. 根据现有payload&#xff0c;检测目标是否存在fastjson或jackson漏洞&#xff08;工具仅用于检测漏洞&#xff09;2. 若存在漏洞&#xff0c;可根据对应payload进行后渗透利用3. 若出现新的漏洞时&#xff0c;可将最新的payload新增至…...

脑机新手指南(八):OpenBCI_GUI:从环境搭建到数据可视化(下)

一、数据处理与分析实战 &#xff08;一&#xff09;实时滤波与参数调整 基础滤波操作 60Hz 工频滤波&#xff1a;勾选界面右侧 “60Hz” 复选框&#xff0c;可有效抑制电网干扰&#xff08;适用于北美地区&#xff0c;欧洲用户可调整为 50Hz&#xff09;。 平滑处理&…...

为什么需要建设工程项目管理?工程项目管理有哪些亮点功能?

在建筑行业&#xff0c;项目管理的重要性不言而喻。随着工程规模的扩大、技术复杂度的提升&#xff0c;传统的管理模式已经难以满足现代工程的需求。过去&#xff0c;许多企业依赖手工记录、口头沟通和分散的信息管理&#xff0c;导致效率低下、成本失控、风险频发。例如&#…...

第25节 Node.js 断言测试

Node.js的assert模块主要用于编写程序的单元测试时使用&#xff0c;通过断言可以提早发现和排查出错误。 稳定性: 5 - 锁定 这个模块可用于应用的单元测试&#xff0c;通过 require(assert) 可以使用这个模块。 assert.fail(actual, expected, message, operator) 使用参数…...

LLM基础1_语言模型如何处理文本

基于GitHub项目&#xff1a;https://github.com/datawhalechina/llms-from-scratch-cn 工具介绍 tiktoken&#xff1a;OpenAI开发的专业"分词器" torch&#xff1a;Facebook开发的强力计算引擎&#xff0c;相当于超级计算器 理解词嵌入&#xff1a;给词语画"…...

短视频矩阵系统文案创作功能开发实践,定制化开发

在短视频行业迅猛发展的当下&#xff0c;企业和个人创作者为了扩大影响力、提升传播效果&#xff0c;纷纷采用短视频矩阵运营策略&#xff0c;同时管理多个平台、多个账号的内容发布。然而&#xff0c;频繁的文案创作需求让运营者疲于应对&#xff0c;如何高效产出高质量文案成…...

嵌入式学习笔记DAY33(网络编程——TCP)

一、网络架构 C/S &#xff08;client/server 客户端/服务器&#xff09;&#xff1a;由客户端和服务器端两个部分组成。客户端通常是用户使用的应用程序&#xff0c;负责提供用户界面和交互逻辑 &#xff0c;接收用户输入&#xff0c;向服务器发送请求&#xff0c;并展示服务…...

安宝特案例丨Vuzix AR智能眼镜集成专业软件,助力卢森堡医院药房转型,赢得辉瑞创新奖

在Vuzix M400 AR智能眼镜的助力下&#xff0c;卢森堡罗伯特舒曼医院&#xff08;the Robert Schuman Hospitals, HRS&#xff09;凭借在无菌制剂生产流程中引入增强现实技术&#xff08;AR&#xff09;创新项目&#xff0c;荣获了2024年6月7日由卢森堡医院药剂师协会&#xff0…...

Spring AI Chat Memory 实战指南:Local 与 JDBC 存储集成

一个面向 Java 开发者的 Sring-Ai 示例工程项目&#xff0c;该项目是一个 Spring AI 快速入门的样例工程项目&#xff0c;旨在通过一些小的案例展示 Spring AI 框架的核心功能和使用方法。 项目采用模块化设计&#xff0c;每个模块都专注于特定的功能领域&#xff0c;便于学习和…...

Python实现简单音频数据压缩与解压算法

Python实现简单音频数据压缩与解压算法 引言 在音频数据处理中&#xff0c;压缩算法是降低存储成本和传输效率的关键技术。Python作为一门灵活且功能强大的编程语言&#xff0c;提供了丰富的库和工具来实现音频数据的压缩与解压。本文将通过一个简单的音频数据压缩与解压算法…...

LangChain【6】之输出解析器:结构化LLM响应的关键工具

文章目录 一 LangChain输出解析器概述1.1 什么是输出解析器&#xff1f;1.2 主要功能与工作原理1.3 常用解析器类型 二 主要输出解析器类型2.1 Pydantic/Json输出解析器2.2 结构化输出解析器2.3 列表解析器2.4 日期解析器2.5 Json输出解析器2.6 xml输出解析器 三 高级使用技巧3…...