100天精通Python(爬虫篇)——第113天:爬虫基础模块之urllib详细教程大全
文章目录
- 1. urllib概述
- 2. urllib.request模块
-
- 1. urllib.request.urlopen()
- 2. urllib.request.urlretrieve()
- 3. urllib.request.Request()
- 4. urllib.request.install_opener()
- 5. urllib.request.build_opener()
- 6. urllib.request.AbstractBasicAuthHandler
- 7. urllib.request.HTTPBasicAuthHandler
- 8. urllib.request.HTTPDigestAuthHandler
- 9. urllib.request.ProxyHandler
- 10. urllib.request.HTTPSHandler
- 11. urllib.request.HTTPCookieProcessor
- 3. urllib.parse模块
-
- 1. urllib.parse.urlparse()
- 2. urllib.parse.urlunparse()
- 3. urllib.parse.urlsplit()
- 4. urllib.parse.urlunsplit()
- 5. urllib.parse.urljoin()
- 6. urllib.parse.urlencode()
- 7. urllib.parse.urldecode()
- 8. urllib.parse.quote()
- 9. urllib.parse.unquote()
- 10. urllib.parse.quote_plus()
- 11. urllib.parse.unquote_plus()
- 3. urllib.error模块
-
- 1. urllib.error.URLError()
- 2. urllib.error.HTTPError()
- 3. urllib.error.ContentTooShortError())
- 4. urllib.robotparser模块
-
- 1. urllib.robotparser.RobotFileParser()
- 5. 实战案例
-
- 1. 万能图片下载
- 2. 爬取豆瓣电影Top250
1. urllib概述
urllib 是 Python 内置的一个标准库(无需安装),专门用于处理与 URL 相关的各种操作,包括网页请求、数据解析等。它提供了较为底层和灵活的接口,允许开发者进行各种类型的网络请求和数据传输。urllib 最初是 Python 2 中的一个模块,在 Python 3 中被拆分成了几个子模块,以便更好地组织功能。
urllib 的主要子模块包括:
urllib.request:用于打开和读取 URL。它提供了类似于浏览器请求的功能,可以发送 GET 和 POST 请求,并处理 HTTP 和 HTTPS 协议。该模块还允许设置请求头、处理 Cookies 以及使用自定义的处理器。urllib.parse:用于解析和构建 URL。它提供了一系列函数,用于将 URL 字符串解析成各个组成部分(如协议、主机名、路径、查询参数等),以及将各个组件重新组合成完整的 URL 字符串。urllib.error:用于处理 urllib.request 引发的异常。它定义了一系列异常类,如 URLError(表示底层的 URL 错误)和 HTTPError(表示 HTTP 请求中的错误)。urllib.robotparser:用于解析 robots.txt 文件。robots.txt 文件是网站用来告诉搜索引擎爬虫哪些页面可以抓取,哪些页面不能抓取的。这个模块允许开发者检查一个 URL 是否允许被爬虫访问。
虽然很多人更喜欢使用requests库,但是urllib作为Python爬虫起源库,了解和掌握它还是很有必要的,并且在一些特殊情况下urllib可能会更有优势。
2. urllib.request模块
urllib.request是Python标准库中的核心模块,用于打开和读取url。它提供了一系列函数和类,用于发送HTTP和HTTPS请求,以及处理服务器响应。下面将详细介绍urllib.request模块中的所有函数及其用法。
1. urllib.request.urlopen()
urllib.request.urlopen()是最常用的函数之一,用于打开一个URL并读取其内容。它接受一个URL作为参数,并返回一个类文件对象,该对象可用于读取响应内容。
import urllib.request# 1、输出需要请求网页链接
url = 'http://www.baidu.com'# 2、模拟浏览器向服务器发送请求
response = urllib.request.urlopen(url)# 3、获取响应数据中的页面源码(注意:read() 返回的是字节形式的二进制数据,返回数据会被 b'xxx' 进行包裹)
content = response.read()# 4、打印二进制数据
# print(content)
# 输出结果:b'<!DOCTYPE html><!--STATUS OK--><html> 中间省略。。。。。。</html># 5、将二进制数据转成字符串,这里需要网页对应的编码格式(例如:<meta http-equiv="Content-Type" content="text/html;charset=utf-8">),charset= 的就是编码格式 utf-8
html_str = content.decode('utf-8')# 6、输出字符串
print(html_str)
该函数还可以接受一个可选的data参数,用于发送POST请求。如果提供了data参数,则请求方法将自动设置为POST。
data = b'param1=value1¶m2=value2' # 注意数据必须是字节类型
response = urllib.request.urlopen(url, data=data)
此外,urlopen()还支持超时设置、SSL证书验证等高级功能。
2. urllib.request.urlretrieve()
urllib.request.urlretrieve()函数用于将URL指向的内容下载到本地文件。它接受两个参数:URL和本地文件名。该函数将URL的内容保存到指定的本地文件中,并返回一个包含两个元素的元组:本地文件名和HTTP消息头。
import urllib.requesturl = 'http://www.example.com/image.jpg'
filename = 'image.jpg'
urllib.request.urlretrieve(url, filename)
3. urllib.request.Request()
urllib.request.Request()类用于构造一个HTTP请求对象。通过创建Request对象,可以设置请求的URL、方法(GET、POST等)、头部信息、数据等。然后,可以使用urlopen()函数发送该请求。
import urllib.requesturl = 'http://www.example.com'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)'
}
request = urllib.request.Request(url, headers=headers)
response = urllib.request.urlopen(request)
content = response.read().decode('utf-8')
print(content)
4. urllib.request.install_opener()
urllib.request.install_opener()函数用于全局设置用于打开URLs的opener对象。opener对象是一个实现了BaseHandler或OpenerDirector接口的类实例。通过安装自定义的opener,可以更改URL打开方式,例如添加代理、处理cookies等。
import urllib.request
from urllib.request import HTTPHandler, build_opener# 创建一个HTTPHandler对象
http_handler = HTTPHandler()# 使用HTTPHandler创建一个opener对象
opener = build_opener(http_handler)# 安装opener
urllib.request.install_opener(opener)# 现在,所有的urlopen调用都会使用自定义的opener
response = urllib.request.urlopen('http://www.example.com')
5. urllib.request.build_opener()
urllib.request.build_opener()函数用于构建一个opener对象。该函数接受一个或多个BaseHandler子类的实例作为参数,并返回一个OpenerDirector对象。通过构建自定义的opener,可以灵活地处理各种HTTP请求。
# 示例同上,不再赘述
6. urllib.request.AbstractBasicAuthHandler
urllib.request.AbstractBasicAuthHandler是一个抽象基类,用于处理基本的HTTP认证。它不能直接实例化,但可以作为自定义认证处理器的基类。
7. urllib.request.HTTPBasicAuthHandler
urllib.request.HTTPBasicAuthHandler是AbstractBasicAuthHandler的一个子类,用于处理HTTP基本认证。通过创建该类的实例,并设置用户名和密码,可以自动处理需要基本认证的HTTP请求。
import urllib.request
from urllib.request import HTTPBasicAuthHandler, build_opener# 创建一个HTTPBasicAuthHandler对象,并设置用户名和密码
auth_handler = HTTPBasicAuthHandler()
auth_handler.add_password('realm', 'http://www.example.com', 'username', 'password')# 使用HTTPBasicAuthHandler创建一个opener对象
opener = build_opener(auth_handler)# 安装opener
urllib.request.install_opener(opener)# 现在,所有的urlopen调用都会自动处理基本认证
response = urllib.request.urlopen('http://www.example.com')
8. urllib.request.HTTPDigestAuthHandler
urllib.request.HTTPDigestAuthHandler类用于处理HTTP摘要认证。与HTTPBasicAuthHandler类似,通过创建该类的实例并设置用户名和密码,可以自动处理需要摘要认证的HTTP请求。
9. urllib.request.ProxyHandler
urllib.request.ProxyHandler类用于处理代理服务器。通过创建该类的实例,并设置代理服务器的地址和端口,可以自动处理通过代理服务器发送的HTTP请求。
import urllib.request
from urllib.request import ProxyHandler, build_opener# 创建一个ProxyHandler对象,并设置代理服务器的地址和端口
proxy_handler = ProxyHandler({'http': 'http://proxy.example.com:8080','https': 'http://proxy.example.com:8080'
})# 使用ProxyHandler创建一个opener对象
opener = build_opener(proxy_handler)# 安装opener
urllib.request.install_opener(opener)# 现在,所有的urlopen调用都会通过代理服务器发送请求
response = urllib.request.urlopen('http://www.example.com')
10. urllib.request.HTTPSHandler
urllib.request.HTTPSHandler类用于处理HTTPS请求。通过创建该类的实例,并可能设置SSL上下文,可以处理加密的HTTPS请求。
11. urllib.request.HTTPCookieProcessor
urllib.request.HTTPCookieProcessor类用于处理HTTP cookies。通过创建该类的实例,并传入一个cookiejar.CookieJar对象,可以自动处理HTTP请求和响应中的cookies。
import urllib.request
from urllib.request import HTTPCookieProcessor, build_opener
from http.cookiejar import CookieJar# 创建一个CookieJar对象
cookie_jar = CookieJar()# 创建一个HTTPCookieProcessor对象,并传入CookieJar对象
cookie_processor = HTTPCookieProcessor(cookie_jar)# 使用HTTPCookieProcessor创建一个opener对象
opener = build_opener(cookie_processor)# 安装opener
urllib.request.install_opener(opener)# 现在,所有的urlopen调用都会自动处理cookies
response = urllib.request.urlopen('http://www.example.com')
3. urllib.parse模块
urllib.parse是Python标准库中的一个模块,专门用于URL解析和构建。它提供了一系列函数,用于解析URL的不同部分、编码和解码URL组件、以及构建新的URL。下面将详细介绍urllib.parse模块中的所有函数及其用法。
1. urllib.parse.urlparse()
urlparse()函数用于将URL解析为六个组件:协议、网络位置、路径、参数、查询字符串和片段。
from urllib.parse import urlparseurl = 'http://www.example.com:80/path?query=string#fragment'
parsed_url = urlparse(url)print(parsed_url.scheme) # 输出协议,如http
print(parsed_url.netloc) # 输出网络位置,如www.example.com:80
print(parsed_url.path) # 输出路径,如/path
print(parsed_url.params) # 输出参数(已废弃,现代URL中不常见)
print(parsed_url.query) # 输出查询字符串,如query=string
print(parsed_url.fragment) # 输出片段,如fragment
注意:params部分在现代URL中并不常见,因此urlparse()返回的params属性通常为空。
2. urllib.parse.urlunparse()
urlunparse()函数是urlparse()的逆操作,它将六个组件重新组合成一个URL。
from urllib.parse import urlunparsecomponents = ('http', 'www.example.com:80', '/path', '', 'query=string', 'fragment')
url = urlunparse(components)
print(url) # 输出: http://www.example.com:80/path?query=string#fragment
3. urllib.parse.urlsplit()
urlsplit()函数与urlparse()类似,但它不解析参数部分,而是将参数和查询字符串一起作为查询部分返回。
from urllib.parse import urlspliturl = 'http://www.example.com:80/path;param?query=string#fragment'
split_url = urlsplit(url)print(split_url.scheme) # 输出协议
print(split_url.netloc) # 输出网络位置
print(split_url.path) # 输出路径(包括参数)
print(split_url.query) # 输出查询字符串
print(split_url.fragment) # 输出片段
4. urllib.parse.urlunsplit()
urlunsplit()函数是urlsplit()的逆操作,它将五个组件重新组合成一个URL。
from urllib.parse import urlunsplitcomponents = ('http', 'www.example.com:80', '/path;param', 'query=string', 'fragment')
url = urlunsplit(components)
print(url) # 输出: http://www.example.com:80/path;param?query=string#fragment
5. urllib.parse.urljoin()
urljoin()函数用于将基本URL与相对URL组合成一个绝对URL。
from urllib.parse import urljoinbase_url = 'http://www.example.com/path/'
relative_url = 'subpath/page.html'
absolute_url = urljoin(base_url, relative_url)
print(absolute_url) # 输出: http://www.example.com/path/subpath/page.html
如果相对URL以/开头,则它会替换基本URL的路径部分;如果以#或?开头,则它会替换基本URL的片段或查询部分。
6. urllib.parse.urlencode()
urlencode()函数用于将字典或两个元组的序列编码为查询字符串。
from urllib.parse import urlencodeparams = {'param1': 'value1', 'param2': 'value2'}
query_string = urlencode(params)
print(query_string) # 输出: param1=value1¶m2=value2
也可以传递一个元组的序列来指定键值对:
params = [('param1', 'value1'), ('param2', 'value2')]
query_string = urlencode(params)
print(query_string) # 输出同上
7. urllib.parse.urldecode()
注意:实际上,urllib.parse模块中并没有直接名为urldecode()的函数,但有一个parse_qs()和一个parse_qsl()函数,它们用于解码查询字符串。
-
parse_qs():将查询字符串解析为一个字典,其中键是参数名,值是参数值的列表(因为查询字符串中可能有多个同名参数)。from urllib.parse import parse_qs
query_string = ‘param1=value1¶m2=value2¶m2=value3’
params = parse_qs(query_string)
print(params) # 输出: {‘param1’: [‘value1’], ‘param2’: [‘value2’, ‘value3’]} -
parse_qsl():与parse_qs()类似,但返回的是一个元组的序列,每个元组包含一个参数名和对应的参数值。from urllib.parse import parse_qsl
query_string = ‘param1=value1¶m2=value2’
params = parse_qsl(query_string)
print(params) # 输出: [(‘param1’, ‘value1’), (‘param2’, ‘value2’)]
8. urllib.parse.quote()
quote()函数用于将字符串中的特殊字符转义为URL编码的字符。
from urllib.parse import quotestring = 'Hello World! 你好,世界!'
encoded_string = quote(string)
print(encoded_string) # 输出: Hello%20World%21%20%E4%BD%A0%E5%A5%BD%EF%BC%8C%E4%B8%96%E7%95%8C%EF%BC%81
9. urllib.parse.unquote()
unquote()函数是quote()的逆操作,它将URL编码的字符转换回原始字符串。
from urllib.parse import unquoteencoded_string = 'Hello%20World%21%20%E4%BD%A0%E5%A5%BD%EF%BC%8C%E4%B8%96%E7%95%8C%EF%BC%81'
decoded_string = unquote(encoded_string)
print(decoded_string) # 输出: Hello World! 你好,世界!
10. urllib.parse.quote_plus()
quote_plus()函数与quote()类似,但它会将空格编码为加号(+)而不是百分号加20(%20)。
from urllib.parse import quote_plusstring = 'Hello World! 你好,世界!'
encoded_string = quote_plus(string)
print(encoded_string) # 输出: Hello+World%21+%E4%BD%A0%E5%A5%BD%EF%BC%8C%E4%B8%96%E7%95%8C%EF%BC%81
11. urllib.parse.unquote_plus()
unquote_plus()函数是quote_plus()的逆操作,它将加号(+)转换回空格。
from urllib.parse import unquote_plusencoded_string = 'Hello+World%21+%E4%BD%A0%E5%A5%BD%EF%BC%8C%E4%B8%96%E7%95%8C%EF%BC%81'
decoded_string = unquote_plus(encoded_string)
print(decoded_string) # 输出: Hello World! 你好,世界!
3. urllib.error模块
urllib.error是Python标准库urllib中的一个模块,专门用于处理在使用urllib进行URL操作时可能遇到的错误。它包含了一系列异常类,这些异常类可以帮助你捕获和处理不同类型的错误情况。本文将详细介绍urllib.error模块中的所有异常类及其用法。
1. urllib.error.URLError()
URLError是urllib.error模块中所有URL错误的基础类。当你遇到与URL相关的错误时,通常会首先捕获到这个异常。
from urllib.error import URLErrortry:# 尝试打开一个URL(这里只是一个示例,实际代码可能涉及更复杂的操作)with urllib.request.urlopen('http://example.com/nonexistent') as response:# 处理响应pass
except URLError as e:print(f"URLError: {e.reason}") # 输出错误的具体原因
URLError有一个reason属性,它包含了错误的详细信息。这个属性通常是一个字符串或者是一个异常对象,具体取决于引发错误的底层原因。
2. urllib.error.HTTPError()
HTTPError是URLError的一个子类,它专门用于处理HTTP协议相关的错误。当你尝试打开一个HTTP URL,并且服务器返回了一个错误状态码(如404表示未找到)时,就会引发这个异常。
from urllib.error import HTTPErrortry:# 尝试打开一个不存在的HTTP URLwith urllib.request.urlopen('http://example.com/nonexistent') as response:# 处理响应(这里不会执行到,因为会引发HTTPError)pass
except HTTPError as e:print(f"HTTPError: {e.code} {e.reason}") # 输出HTTP状态码和错误原因print(f"Headers: {e.headers}") # 输出响应头(如果有的话)# 你可以在这里进一步处理错误,比如重试请求或者记录日志
HTTPError有几个重要的属性:
code:HTTP状态码(如404, 500等)。reason:错误原因的简短描述(如"Not Found")。headers:包含响应头的HTTPMessage对象(如果有的话)。fp:一个文件对象,包含了服务器返回的错误页面的内容(如果有的话,通常用于调试)。
3. urllib.error.ContentTooShortError())
ContentTooShortError是urllib.error模块中的一个异常类,它会在下载的内容长度小于预期时引发。这通常意味着连接在内容完全传输之前就被关闭了。
from urllib.error import ContentTooShortErrortry:# 尝试下载一个文件(这里只是一个示例,实际代码可能涉及更复杂的操作)with urllib.request.urlopen('http://example.com/largefile') as response, open('file.dat', 'wb') as f:f.write(response.read())
except ContentTooShortError as e:print(f"ContentTooShortError: The content was shorter than expected.")# 你可以在这里处理错误,比如重试下载或者记录日志
注意说明:
- 在实际的Python环境中,
urllib.request和urllib.error通常是同时使用的。urllib.request模块用于发起URL请求,而urllib.error模块则用于处理这些请求可能引发的错误。 urllib.error模块中可能还有其他一些异常类,但URLError和HTTPError是最常见和最重要的。其他异常类通常是更具体的情况或者更低级别的错误,它们的使用频率相对较低。- 在处理URL相关的错误时,最好能够捕获到具体的异常类(如
HTTPError),以便能够针对不同类型的错误采取不同的处理措施。如果只需要捕获所有URL相关的错误,可以捕获URLError基类。
4. urllib.robotparser模块
urllib.robotparser模块是Python标准库中的一个重要组成部分,它专门用于解析和遵守网站的robots.txt文件。robots.txt文件是一个文本文件,通常放在网站的根目录下,用于告诉搜索引擎爬虫哪些页面可以抓取,哪些页面不可以抓取。urllib.robotparser模块提供了一个RobotFileParser类,通过这个类,我们可以方便地判断某个URL是否可以被特定的爬虫抓取。
1. urllib.robotparser.RobotFileParser()
RobotFileParser类是urllib.robotparser模块中的核心类,它提供了多个方法来解析robots.txt文件并判断URL的抓取权限。
1. 构造函数
urllib.robotparser.RobotFileParser(url='')
url:可选参数,指定robots.txt文件的URL。如果不提供,可以在后续使用set_url()方法设置。
2. set_url(url)
设置robots.txt文件的URL。
url:robots.txt文件的URL。
3. read()
读取并解析robots.txt文件。这个方法不会返回任何内容,但必须对文件进行读取操作,否则后续的can_fetch()方法判断将始终为False。
4. parse(lines)
解析robots.txt文件的内容。这个方法的参数lines应该是robots.txt文件中的某些行内容,通常是通过读取文件并拆分得到的。这个方法也可以用于直接解析字符串形式的robots.txt内容。
lines:robots.txt文件中的行内容列表。
5. can_fetch(user_agent, url)
判断指定的user_agent是否有权限抓取指定的url。
user_agent:爬虫的名称或标识符。url:要抓取的URL。- 返回值:如果
user_agent有权限抓取url,则返回True;否则返回False。
6. mtime()
返回上次抓取和分析robots.txt文件的时间。这对于长时间运行的爬虫来说很有用,因为它可以帮助爬虫定期检查并更新robots.txt文件的最新内容。
- 返回值:上次抓取和分析
robots.txt文件的时间(以秒为单位的UNIX时间戳)。
7. modified()
将当前时间设置为上次抓取和分析robots.txt文件的时间。这个方法通常用于在爬虫启动或重置时设置初始时间。
以下是一个使用urllib.robotparser模块判断URL抓取权限的示例:
from urllib.robotparser import RobotFileParser# 创建一个RobotFileParser对象
robots = RobotFileParser()# 设置robots.txt文件的URL
robots.set_url("http://www.example.com/robots.txt")# 读取并解析robots.txt文件
robots.read()# 判断Baiduspider是否有权限抓取http://www.example.com/page1.html
print(robots.can_fetch("Baiduspider", "http://www.example.com/page1.html"))# 判断Googlebot是否有权限抓取http://www.example.com/page2.html
print(robots.can_fetch("Googlebot", "http://www.example.com/page2.html"))
在这个示例中,我们首先创建了一个RobotFileParser对象,并设置了robots.txt文件的URL。然后,我们调用read()方法读取并解析了robots.txt文件。最后,我们使用can_fetch()方法判断了两个不同的爬虫是否有权限抓取两个不同的URL。
注意事项:
- 在使用
urllib.robotparser模块时,请确保你的爬虫遵守robots.txt文件中的规则。尊重网站的抓取限制是爬虫开发中的一项重要道德和法律义务。 urllib.robotparser模块仅提供了基本的robots.txt解析和判断功能。如果你需要更复杂的爬虫管理功能(如动态更新robots.txt文件、处理多个网站的抓取规则等),可能需要自行实现或使用第三方库。
5. 实战案例
1. 万能图片下载
使用urllib库编写一个“万能”图片下载代码需要考虑几个关键点:如何获取图片的URL、如何处理不同网站的图片链接格式、以及如何处理网络错误和文件写入。尽管无法编写一个真正意义上能处理所有情况的“万能”代码(因为每个网站的结构和限制都可能不同),但我们可以编写一个相对通用的图片下载器,它能够处理一些常见的场景。
以下是一个简单的Python脚本,它使用urllib库从给定的图片URL下载图片,并将其保存到本地:
import urllib.request
import urllib.parse
import osdef download_image(image_url, save_path='images/', filename=None):"""从给定的图片URL下载图片,并保存到指定的路径。:param image_url: 图片的URL。:param save_path: 保存图片的文件夹路径(默认为'images/')。:param filename: 保存图片的文件名(如果为None,则使用URL中的文件名)。:return: 保存的图片文件名。"""# 确保保存路径存在if not os.path.exists(save_path):os.makedirs(save_path)# 如果未指定文件名,则从URL中提取if filename is None:parsed_url = urllib.parse.urlparse(image_url)filename = os.path.basename(parsed_url.path)# 构建完整的保存路径full_path = os.path.join(save_path, filename)try:# 打开URL并读取图片数据with urllib.request.urlopen(image_url) as response, open(full_path, 'wb') as out_file:# 将图片数据写入文件data = response.read()out_file.write(data)print(f"图片已保存到 {full_path}")except urllib.error.URLError as e:print(f"无法下载图片:{e.reason}")except Exception as e:print(f"发生错误:{e}")return full_path# 示例使用
if __name__ == "__main__":image_url = "https://profile-avatar.csdnimg.cn/53a04a4caf1f4dc098a03b5d8840dbdb_yuan2019035055.jpg" # 替换为实际的图片URLdownload_image(image_url)
用代码测试下载我的博客头像成功下载:

2. 爬取豆瓣电影Top250
使用urllib库来爬取豆瓣电影Top 250的列表需要处理多个分页,解析HTML内容,并提取所需的信息。由于豆瓣电影Top 250是分页显示的,每页显示25部电影,因此你需要循环访问每个分页并解析其内容,将使用BeautifulSoup库来解析HTML。
首先,确保你已经安装了BeautifulSoup和lxml(一个用于解析HTML和XML的库):
pip install beautifulsoup4 lxml
代码说明:
-
导入库:除了
urllib库外,还导入了BeautifulSoup用于HTML解析。 -
设置基础URL和请求头:
BASE_URL是豆瓣电影Top 250的起始URL,HEADERS包含了一个用户代理字符串,用于模拟浏览器请求,以避免被网站封禁。 -
定义爬取函数:
fetch_top250_movies函数循环访问豆瓣电影Top 250的每个分页,使用urllib.request.Request构建请求对象,并添加请求头。然后,使用urllib.request.urlopen打开URL,读取HTML内容,并通过BeautifulSoup解析内容。 -
解析电影信息:在函数内部,使用
find_all方法找到所有类名为item的div元素,这些元素包含了每部电影的信息。然后,遍历这些元素,提取电影的标题、评分和链接。 -
示例使用:在
__main__块中调用fetch_top250_movies函数,并打印出每部电影的标题、评分和链接。
完整代码如下(免责声明 :此代码仅用于学习和研究目的,请勿用于商业用途或违反法律的行为,后果自负):
import urllib.request
import urllib.parse
from urllib.error import URLError, HTTPError
from bs4 import BeautifulSoup# 豆瓣电影Top 250基础URL
BASE_URL = "https://movie.douban.com/top250"
HEADERS = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}# 定义一个函数来爬取Top 250电影
def fetch_top250_movies(start=0):movies = []for i in range(10): # 豆瓣Top 250共10页,每页25部url = f"{BASE_URL}?start={start}"try:request = urllib.request.Request(url, headers=HEADERS)response = urllib.request.urlopen(request)html_content = response.read().decode('utf-8')soup = BeautifulSoup(html_content, 'lxml')# 解析每部电影的信息items = soup.find_all('div', class_='item')for item in items:movie = {}title_tag = item.find('span', class_='title')rating_tag = item.find('span', class_='rating_num')link_tag = item.find('a')if title_tag and rating_tag and link_tag:movie['title'] = title_tag.get_text(strip=True)movie['rating'] = rating_tag.get_text(strip=True)movie['link'] = link_tag['href']movies.append(movie)start += 25 # 每页25部电影except (URLError, HTTPError) as e:print(f"Error fetching {url}: {e.reason}")breakreturn movies# 示例使用
if __name__ == "__main__":top250_movies = fetch_top250_movies()for movie in top250_movies:print(f"Title: {movie['title']}, Rating: {movie['rating']}, Link: {movie['link']}")
运行结果展示:

相关文章:
100天精通Python(爬虫篇)——第113天:爬虫基础模块之urllib详细教程大全
文章目录 1. urllib概述2. urllib.request模块 1. urllib.request.urlopen()2. urllib.request.urlretrieve()3. urllib.request.Request()4. urllib.request.install_opener()5. urllib.request.build_opener()6. urllib.request.AbstractBasicAuthHandler7. urllib.request.…...
光谱相机与普通相机的区别
一、成像目的 普通相机:主要目的是记录物体的外观形态,生成人眼可见的、直观的二维图像,重点在于还原物体的形状、颜色和纹理等视觉特征,以供人们进行观赏、记录场景或人物等用途。例如,拍摄旅游风景照片、人物肖像等…...
Mysql数据 新增、修改和删除操作时,这些变化如何被转换为Kafka消息?
Mysql数据 新增、修改和删除操作时,这些变化如何被转换为Kafka消息? 为了在FlinkCDC中配置MySQL同步到Kafka,并采用debezium-json数据格式,我们需要了解当执行新增、修改和删除操作时,这些变化如何被转换为Kafka消息。下面我们将详细介绍这些变化情况,并提供具体的数据样…...
《Python 机器视觉:开启智能视觉新时代》
《Python 机器视觉:开启智能视觉新时代》 一、Python 机器视觉的基石(一)关键库的强大力量(二)环境搭建的便捷路径 二、核心功能与奇妙应用(一)图像的奇幻处理(二)目标检…...
uniapp实现为微信小程序扫一扫的功能
引言 随着微信小程序的快速发展,越来越多的开发者开始关注和学习微信小程序的开发。其中,微信小程序的扫一扫功能是非常常用且实用的功能之一。通过扫描二维码,用户可以获取到相关的信息或者实现特定的功能。 正文 在过去,开发者需要使用微信开发者工具以及相关的开发文档…...
【微信小程序】4plus|搜索框-历史搜索 | 我的咖啡店-综合实训
升级版1-清空全部的再次确认 实现功能: 历史搜索记录展示-历史搜索记录展示10条点击跳转-点击历史搜索记录可同步到搜索框并自动搜索全部删除-可一次性全部删除历史搜索记录全部删除-有再次确认操作展示 进行搜索后留下搜索记录 点击垃圾桶图标,显示【清空全部】 点击【清…...
使用FFmpeg进行拉流和推流操作
FFmpeg是一款强大的多媒体处理工具,可以用于视频的录制、转换、推流和拉流等操作。下面将详细介绍如何使用FFmpeg进行拉流和推流操作。 1. FFmpeg推流操作 推流是将本地的音视频流推送到流媒体服务器上,例如主播将本地电脑上的画面推流到直播平台的流媒…...
Unity微信小游戏接入开放数据域
demo地址:https://github.com/wechat-miniprogram/minigame-unity-webgl-transform/tree/main/Demo/Ranking 官方说明: https://github.com/wechat-miniprogram/minigame-unity-webgl-transform/blob/main/Design/OpenData.md 准备一个Canvas,…...
Spring Boot的开发工具(DevTools)模块中的热更新特性导致的问题
问题: java.lang.ClassCastException: class cn.best.scholarflow.framework.system.domain.entity.SysUser cannot be cast to class cn.best.scholarflow.framework.system.domain.entity.SysUser (cn.best.scholarflow.framework.system.domain.…...
Elasticsearch安装和数据迁移
Elasticsearch安装和数据迁移 Elasticsearch安装 下载并解压Elasticsearch 首先下载Elasticsearch的tar.gz文件,并将其解压: wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-8.8.2-linux-x86_64.tar.gz tar -xzf elastics…...
Numpy指南:解锁Python多维数组与矩阵运算(下)
文章一览 前言一、排序1.1 numpy.sort1.2 numpy.argsort1.3 numpy.lexsort 二、数组操作2.1 数组元素迭代2.2 数值舍入计算2.3数值取整2.4 数组去重2.5 数组拼接2.6 数组行列交换 三、文件读写3.1 np.fromfile() 读文件3.2 np.loadtxt() 读文件3.3 用 csv 模块逐行处理 CSV 格式…...
路由器刷机TP-Link tp-link-WDR5660 路由器升级宽带速度
何在路由器上设置代理服务器? 如何在路由器上设置代理服务器? 让所有连接到该路由器的设备都能够享受代理服务器的好处是一个不错的选择,特别是当需要访问特定的网站或加速网络连接的时候。下面是一些您可以跟随的步骤,使用路由器…...
VB.NET在 Excel 二次开发中的全面应用
摘要: 本文详细阐述了如何运用VB.NET进行 Excel 的二次开发。首先介绍了开发环境的搭建,包括安装 Visual Studio 及引用 Excel 对象库。接着深入探讨了各种基础操作,如创建 Excel 应用程序对象、打开与操作工作簿、处理工作表与单元格数据等。…...
uni-app使用组件button遇到的问题
在HBuilder X工具中新建一个空白项目, 1、新建一个about页 然后在pages.json文件里加上路由 2、然后看下导航的方法,发现找不到navigateTo方法 参考:button | uni-app官网 第3行和第4行的代码倒是没问题的,第5行的代码有问题执行…...
如何在Express.js中处理异常情况?
在 Express.js 中处理异常情况是确保应用程序稳定性和安全性的重要方面。未处理的错误可能会导致应用崩溃或暴露敏感信息给用户。以下是几种常见的处理异常的方法: 1. 使用 try...catch 和 async/await 对于异步操作,如数据库查询、文件系统访问等&…...
CKA认证 | Day7 K8s存储
第七章 Kubernetes存储 1、数据卷与数据持久卷 为什么需要数据卷? 容器中的文件在磁盘上是临时存放的,这给容器中运行比较重要的应用程序带来一些问题。 问题1:当容器升级或者崩溃时,kubelet会重建容器,容器内文件会…...
ArcGIS Pro地形图四至角图经纬度标注与格网标注
今天来看看ArcGIS Pro 如何在地形图上设置四至角点的经纬度。方里网标注。如下图的地形图左下角经纬度标注。 如下图方里网的标注 如下为本期要介绍的例图,如下: 图片可点击放大 接下来我们来介绍一下 推荐学习:GIS入门模型构建器Arcpy批量…...
策略模式以及优化
使用场景 在一个条件语句中又包含了多个条件语句 具体策略类会过多 把抽象策略和具体策略放在一个枚举类里。 方法 exe() 相当于抽象策略,而A和B就相当于实现了抽象策略的具体策略 这样就只需要一个枚举类就可以解决具体策略类过多的问题 public enum Strategy {A{O…...
linux自动化一键批量检查主机端口
1、准备 我们可以使用下面命令关闭一个端口 sudo iptables -A INPUT -p tcp --dport 端口号 -j DROP我关闭的是22端口,各位可以关其它的或者打开其它端口测试,谨慎关闭22端口!不然就会像我下面一样握手超时😭😭&…...
Vue3入门(9)
1. 【 replace属性】 作用:控制路由跳转时操作浏览器历史记录的模式。 浏览器的历史记录有两种写入方式:分别为push和replace: - push是追加历史记录(默认值)。 - replace是替换当前记录。 . 开启replace模式ÿ…...
【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型
摘要 拍照搜题系统采用“三层管道(多模态 OCR → 语义检索 → 答案渲染)、两级检索(倒排 BM25 向量 HNSW)并以大语言模型兜底”的整体框架: 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后,分别用…...
生成xcframework
打包 XCFramework 的方法 XCFramework 是苹果推出的一种多平台二进制分发格式,可以包含多个架构和平台的代码。打包 XCFramework 通常用于分发库或框架。 使用 Xcode 命令行工具打包 通过 xcodebuild 命令可以打包 XCFramework。确保项目已经配置好需要支持的平台…...
反向工程与模型迁移:打造未来商品详情API的可持续创新体系
在电商行业蓬勃发展的当下,商品详情API作为连接电商平台与开发者、商家及用户的关键纽带,其重要性日益凸显。传统商品详情API主要聚焦于商品基本信息(如名称、价格、库存等)的获取与展示,已难以满足市场对个性化、智能…...
MongoDB学习和应用(高效的非关系型数据库)
一丶 MongoDB简介 对于社交类软件的功能,我们需要对它的功能特点进行分析: 数据量会随着用户数增大而增大读多写少价值较低非好友看不到其动态信息地理位置的查询… 针对以上特点进行分析各大存储工具: mysql:关系型数据库&am…...
高危文件识别的常用算法:原理、应用与企业场景
高危文件识别的常用算法:原理、应用与企业场景 高危文件识别旨在检测可能导致安全威胁的文件,如包含恶意代码、敏感数据或欺诈内容的文档,在企业协同办公环境中(如Teams、Google Workspace)尤为重要。结合大模型技术&…...
全面解析各类VPN技术:GRE、IPsec、L2TP、SSL与MPLS VPN对比
目录 引言 VPN技术概述 GRE VPN 3.1 GRE封装结构 3.2 GRE的应用场景 GRE over IPsec 4.1 GRE over IPsec封装结构 4.2 为什么使用GRE over IPsec? IPsec VPN 5.1 IPsec传输模式(Transport Mode) 5.2 IPsec隧道模式(Tunne…...
GitHub 趋势日报 (2025年06月06日)
📊 由 TrendForge 系统生成 | 🌐 https://trendforge.devlive.org/ 🌐 本日报中的项目描述已自动翻译为中文 📈 今日获星趋势图 今日获星趋势图 590 cognee 551 onlook 399 project-based-learning 348 build-your-own-x 320 ne…...
【LeetCode】3309. 连接二进制表示可形成的最大数值(递归|回溯|位运算)
LeetCode 3309. 连接二进制表示可形成的最大数值(中等) 题目描述解题思路Java代码 题目描述 题目链接:LeetCode 3309. 连接二进制表示可形成的最大数值(中等) 给你一个长度为 3 的整数数组 nums。 现以某种顺序 连接…...
如何配置一个sql server使得其它用户可以通过excel odbc获取数据
要让其他用户通过 Excel 使用 ODBC 连接到 SQL Server 获取数据,你需要完成以下配置步骤: ✅ 一、在 SQL Server 端配置(服务器设置) 1. 启用 TCP/IP 协议 打开 “SQL Server 配置管理器”。导航到:SQL Server 网络配…...
一些实用的chrome扩展0x01
简介 浏览器扩展程序有助于自动化任务、查找隐藏的漏洞、隐藏自身痕迹。以下列出了一些必备扩展程序,无论是测试应用程序、搜寻漏洞还是收集情报,它们都能提升工作流程。 FoxyProxy 代理管理工具,此扩展简化了使用代理(如 Burp…...
