geekdoc-python-zh/docs/realpython/urllib-request.md

59 KiB
Raw Permalink Blame History

Python 的 urllib.request 用于 HTTP 请求

原文:https://realpython.com/urllib-request/

如果你需要用 Python 发出 HTTP 请求,那么你可能会发现自己被引向了辉煌的 requests 库。虽然它是一个很棒的库,但是您可能已经注意到它不是 Python 的内置部分。无论出于什么原因,如果您喜欢限制依赖项并坚持使用标准库 Python那么您可以使用urllib.request

在本教程中,您将:

  • 学习如何用urllib.request制作基本的 HTTP 请求
  • 深入了解 HTTP 消息 的具体细节以及urllib.request如何表示它
  • 了解如何处理 HTTP 消息的字符编码
  • 探索使用urllib.request时的一些常见错误,并学习如何解决它们
  • urllib.request体验一下认证请求的世界
  • 理解为什么urllibrequests库都存在,以及何时使用其中一个

如果你听说过 HTTP 请求,包括 GETPOST ,那么你可能已经准备好学习本教程了。此外,您应该已经使用 Python 对文件进行了读写,最好是使用上下文管理器,至少一次。

最终,你会发现提出请求并不一定是一次令人沮丧的经历,尽管它确实有这样的名声。你可能遇到的许多问题都是由于互联网这个神奇的东西固有的复杂性。好消息是,urllib.request模块可以帮助揭开这种复杂性的神秘面纱。

了解更多: ,获取新的 Python 教程和新闻,让您成为更有效的 Python 爱好者。

带有urllib.request 的基本 HTTP GET 请求

在深入了解什么是 HTTP 请求以及它是如何工作的之前,您将通过向一个示例 URL 发出一个基本的 get 请求来尝试一下。您还将向 mock REST API 请求一些 JSON 数据。如果你对 POST 请求感到疑惑,一旦你对urllib.request有了更多的了解,你将在教程的后面中涉及到它们。

**小心:**根据你的具体设置,你可能会发现其中一些例子并不适用。如果是,请跳到常见 urllib.request错误部分进行故障排除。

如果你遇到了这里没有涉及的问题,一定要在下面用一个精确的可重复的例子来评论。

首先,您将向www.example.com发出请求,服务器将返回一条 HTTP 消息。确保您使用的是 Python 3 或更高版本,然后使用来自urllib.requesturlopen()函数:

>>> from urllib.request import urlopen
>>> with urlopen("https://www.example.com") as response:
...     body = response.read()
...
>>> body[:15]
b'<!doctype html>'

在这个例子中,您从urllib.request导入urlopen()。使用上下文管理器 with,你发出一个请求,然后用urlopen()接收一个响应。然后,读取响应的主体并关闭响应对象。这样,您显示了正文的前 15 个位置,注意到它看起来像一个 HTML 文档。

原来你在这里!您已成功提出请求,并收到了回复。通过检查内容,您可以知道这可能是一个 HTML 文档。注意正文的打印输出前面有b。这表示一个字节的文字,你可能需要解码。在本教程的后面,您将学习如何将字节转换成一个字符串,将它们写入一个文件,或者将它们解析成一个字典

如果您想调用 REST APIs 来获取 JSON 数据,这个过程只是略有不同。在以下示例中,您将向{ JSON }占位符请求一些虚假的待办事项数据:

>>> from urllib.request import urlopen
>>> import json
>>> url = "https://jsonplaceholder.typicode.com/todos/1"
>>> with urlopen(url) as response:
...     body = response.read()
...
>>> todo_item = json.loads(body)
>>> todo_item
{'userId': 1, 'id': 1, 'title': 'delectus aut autem', 'completed': False}

在这个例子中,您所做的与上一个例子非常相似。但是在这个例子中,您导入了urllib.request json,使用带有bodyjson.loads()函数将返回的 JSON 字节解码并解析到一个 Python 字典。瞧啊。

如果你足够幸运地使用无错误的端点,比如这些例子中的那些,那么也许以上就是你从urllib.request开始所需要的全部。话说回来,你可能会发现这还不够。

现在,在进行一些urllib.request故障排除之前,您将首先了解 HTTP 消息的底层结构,并学习urllib.request如何处理它们。这种理解将为解决许多不同类型的问题提供坚实的基础。

Remove ads

HTTP 消息的基本要素

为了理解使用urllib.request时可能遇到的一些问题,您需要研究一下urllib.request是如何表示响应的。要做到这一点,您将从什么是 HTTP 消息的高层次概述中受益,这也是您将在本节中得到的内容。

在高级概述之前,先简要说明一下参考源。如果你想进入技术领域,互联网工程任务组(IETF) 有一套广泛的征求意见稿(RFC) 文档。这些文档最终成为诸如 HTTP 消息之类的实际规范。例如RFC 7230第 1 部分:消息语法和路由,都是关于 HTTP 消息的。

如果你正在寻找一些比 RFC 更容易理解的参考资料,那么Mozilla Developer Network(MDN)有大量的参考文章。例如,他们关于 HTTP 消息的文章,虽然仍然是技术性的,但是更容易理解。

现在您已经了解了这些参考信息的基本来源,在下一节中,您将获得一个对 HTTP 消息的初学者友好的概述。

了解什么是 HTTP 消息

简而言之HTTP 消息可以理解为文本,作为一个由字节组成的流传输,其结构遵循 RFC 7230 规定的指导原则。解码后的 HTTP 消息可能只有两行:

GET / HTTP/1.1
Host: www.google.com

这使用HTTP/1.1协议在根(/)指定了一个 GET 请求。唯一需要的是主机www.google.com。目标服务器有足够的信息来用这些信息作出响应。

响应在结构上类似于请求。HTTP 消息有两个主要部分,元数据和主体。在上面的请求示例中,消息都是元数据,没有正文。另一方面,响应确实有两个部分:****

HTTP/1.1 200 OK
Content-Type: text/html; charset=ISO-8859-1
Server: gws
(... other headers ...)

<!doctype html><html itemscope="" itemtype="http://schema.org/WebPage"
...

响应以指定 HTTP 协议HTTP/1.1和状态200 OK状态行开始。在状态行之后,您会得到许多键值对,比如Server: gws,代表所有的响应。这是响应的元数据。

在元数据之后,有一个空行,作为标题和正文之间的分隔符。空行之后的一切组成了正文。当你使用urllib.request时,这是被读取的部分。

:空行在技术上通常被称为换行符。HTTP 消息中的换行符必须是一个 Windows 风格的回车符 ( \r)和一个行结束符 ( \n)。在类似 Unix 的系统上,换行符通常只是一个行尾(\n)。

您可以假设所有的 HTTP 消息都遵循这些规范,但是也有可能有些消息违反了这些规则或者遵循了一个旧的规范。不过,这很少会引起任何问题。所以,把它放在你的脑海里,以防你遇到一个奇怪的 bug

在下一节中,您将看到urllib.request如何处理原始 HTTP 消息。

理解urllib.request如何表示 HTTP 消息

使用urllib.request时,您将与之交互的 HTTP 消息的主要表示是 HTTPResponse 对象。urllib.request模块本身依赖于底层的http模块,你不需要直接与之交互。不过,你最终还是会使用一些http提供的数据结构,比如HTTPResponseHTTPMessage

注意:Python 中表示 HTTP 响应和消息的对象的内部命名可能有点混乱。你通常只与HTTPResponse的实例交互,而请求的事情在内部处理。

你可能认为HTTPMessage是一种基类,它是从HTTPResponse继承而来的,但事实并非如此。HTTPResponse直接继承io.BufferedIOBase,而HTTPMessage类继承 email.message.EmailMessage

在源代码中,EmailMessage被定义为一个包含一堆头和一个有效载荷的对象,所以它不一定是一封电子邮件。HTTPResponse仅仅使用HTTPMessage作为其头部的容器。

然而,如果您谈论的是 HTTP 本身而不是它的 Python 实现,那么您将 HTTP 响应视为一种 HTTP 消息是正确的。

当你用urllib.request.urlopen()发出请求时,你得到一个HTTPResponse对象作为回报。花些时间探索带有 pprint()dir()HTTPResponse对象,看看属于它的所有不同方法和属性:

>>> from urllib.request import urlopen
>>> from pprint import pprint
>>> with urlopen("https://www.example.com") as response:
...     pprint(dir(response))
...

要显示此代码片段的输出,请单击展开下面的可折叠部分:

['__abstractmethods__',
 '__class__',
 '__del__',
 '__delattr__',
 '__dict__',
 '__dir__',
 '__doc__',
 '__enter__',
 '__eq__',
 '__exit__',
 '__format__',
 '__ge__',
 '__getattribute__',
 '__gt__',
 '__hash__',
 '__init__',
 '__init_subclass__',
 '__iter__',
 '__le__',
 '__lt__',
 '__module__',
 '__ne__',
 '__new__',
 '__next__',
 '__reduce__',
 '__reduce_ex__',
 '__repr__',
 '__setattr__',
 '__sizeof__',
 '__str__',
 '__subclasshook__',
 '_abc_impl',
 '_checkClosed',
 '_checkReadable',
 '_checkSeekable',
 '_checkWritable',
 '_check_close',
 '_close_conn',
 '_get_chunk_left',
 '_method',
 '_peek_chunked',
 '_read1_chunked',
 '_read_and_discard_trailer',
 '_read_next_chunk_size',
 '_read_status',
 '_readall_chunked',
 '_readinto_chunked',
 '_safe_read',
 '_safe_readinto',
 'begin',
 'chunk_left',
 'chunked',
 'close',
 'closed',
 'code',
 'debuglevel',
 'detach',
 'fileno',
 'flush',
 'fp',
 'getcode',
 'getheader',
 'getheaders',
 'geturl',
 'headers',
 'info',
 'isatty',
 'isclosed',
 'length',
 'msg',
 'peek',
 'read',
 'read1',
 'readable',
 'readinto',
 'readinto1',
 'readline',
 'readlines',
 'reason',
 'seek',
 'seekable',
 'status',
 'tell',
 'truncate',
 'url',
 'version',
 'will_close',
 'writable',
 'write',
 'writelines']

这有很多方法和属性,但是您最终只会使用其中的一小部分。除了.read()之外,重要的通常包括获得关于报头的信息。

检查所有标题的一种方法是访问HTTPResponse对象的 .headers 属性。这将返回一个HTTPMessage对象。方便的是,您可以像对待字典一样对待一个HTTPMessage,方法是对它调用.items(),以元组的形式获取所有的头:

>>> with urlopen("https://www.example.com") as response:
...     pass
...
>>> response.headers
<http.client.HTTPMessage object at 0x000001E029D9F4F0>
>>> pprint(response.headers.items())
[('Accept-Ranges', 'bytes'),
 ('Age', '398424'),
 ('Cache-Control', 'max-age=604800'),
 ('Content-Type', 'text/html; charset=UTF-8'),
 ('Date', 'Tue, 25 Jan 2022 12:18:53 GMT'),
 ('Etag', '"3147526947"'),
 ('Expires', 'Tue, 01 Feb 2022 12:18:53 GMT'),
 ('Last-Modified', 'Thu, 17 Oct 2019 07:18:26 GMT'),
 ('Server', 'ECS (nyb/1D16)'),
 ('Vary', 'Accept-Encoding'),
 ('X-Cache', 'HIT'),
 ('Content-Length', '1256'),
 ('Connection', 'close')]

现在您可以访问所有的响应头了!您可能不需要这些信息中的大部分,但是请放心,有些应用程序确实会用到它们。例如,您的浏览器可能会使用标题来读取响应、设置 cookies 并确定适当的缓存生命周期。

有一些方便的方法可以从一个HTTPResponse对象中获取标题,因为这是一个非常常见的操作。您可以直接在HTTPResponse对象上调用.getheaders(),这将返回与上面完全相同的元组列表。如果您只对一个头感兴趣,比如说Server头,那么您可以在HTTPResponse上使用单数.getheader("Server"),或者在.headers上使用方括号([])语法,从HTTPMessage:

>>> response.getheader("Server")
'ECS (nyb/1D16)'
>>> response.headers["Server"]
'ECS (nyb/1D16)'

说实话,您可能不需要像这样直接与标题交互。您最可能需要的信息可能已经有了一些内置的帮助器方法,但是现在您知道了,以防您需要更深入地挖掘!

Remove ads

关闭HTTPResponse

HTTPResponse对象与文件对象有很多共同之处。像文件对象一样,HTTPResponse类继承了 IOBase,这意味着你必须注意打开和关闭。

在简单的程序中,如果你忘记关闭HTTPResponse对象,你不太可能注意到任何问题。然而,对于更复杂的项目,这可能会显著降低执行速度,并导致难以查明的错误。

出现问题是因为输入/输出 (I/O)流受到限制。每个HTTPResponse都要求一个流在被读取时保持清晰。如果您从不关闭您的流,这将最终阻止任何其他流被打开,并且它可能会干扰其他程序甚至您的操作系统。

所以,一定要关闭你的HTTPResponse对象!为了方便起见,您可以使用上下文管理器,正如您在示例中看到的那样。您也可以通过在响应对象上显式调用.close()来获得相同的结果:

>>> from urllib.request import urlopen
>>> response = urlopen("https://www.example.com")
>>> body = response.read()
>>> response.close()

在这个例子中,您没有使用上下文管理器,而是显式地关闭了响应流。不过,上面的例子仍然有一个问题,因为在调用.close()之前可能会引发一个异常,阻止正确的拆卸。要使这个调用无条件,正如它应该的那样,您可以使用一个带有一个else和一个finally子句的 tryexcept 块:

>>> from urllib.request import urlopen
>>> response = None
>>> try:
...     response = urlopen("https://www.example.com")
... except Exception as ex:
...     print(ex)
... else:
...     body = response.read()
... finally:
...     if response is not None:
...         response.close()

在本例中,您通过使用finally块实现了对.close()的无条件调用,无论出现什么异常,该块都将一直运行。finally块中的代码首先检查response对象是否与is not None一起存在,然后关闭它。

也就是说,这正是上下文管理器所做的,并且通常首选with语法。with语法不仅不那么冗长、可读性更好,而且还能防止令人讨厌的遗漏错误。换句话说,这是防止意外忘记关闭对象的更好的方法:

>>> from urllib.request import urlopen
>>> with urlopen("https://www.example.com") as response:
...     response.read(50)
...     response.read(50)
...
b'<!doctype html>\n<html>\n<head>\n    <title>Example D'
b'omain</title>\n\n    <meta charset="utf-8" />\n    <m'

在这个例子中,您从urllib.request模块导入urlopen()。您使用带有.urlopen()with关键字将HTTPResponse对象赋给变量response。然后,读取响应的前 50 个字节,然后读取随后的 50 个字节,所有这些都在with块中。最后,关闭with块,它执行请求并运行其块中的代码行。

使用这段代码,可以显示两组各 50 个字节的内容。一旦退出with块范围,HTTPResponse对象将关闭,这意味着.read()方法将只返回空字节对象:

>>> import urllib.request
>>> with urllib.request.urlopen("https://www.example.com") as response:
...     response.read(50)
...
b'<!doctype html>\n<html>\n<head>\n    <title>Example D'
>>> response.read(50)
b''

在这个例子中,读取 50 个字节的第二个调用在with范围之外。在with块之外意味着HTTPResponse被关闭,即使你仍然可以访问这个变量。如果你试图在HTTPResponse关闭时读取它,它将返回一个空字节对象。

另一点需要注意的是,一旦你从头到尾阅读了一遍,你就不能重读一遍:

>>> import urllib.request
>>> with urllib.request.urlopen("https://www.example.com") as response:
...     first_read = response.read()
...     second_read = response.read()
...
>>> len(first_read)
1256
>>> len(second_read)
0

这个例子表明,一旦你读了一个回复,你就不能再读了。如果您已经完整地读取了响应,那么即使响应没有关闭,后续的尝试也只是返回一个空字节对象。你必须再次提出请求。

在这方面,响应与文件对象不同,因为对于文件对象,可以使用 .seek() 方法多次读取,而HTTPResponse不支持。即使在关闭响应之后,您仍然可以访问头和其他元数据。

探索文本、八位字节和位

在迄今为止的大多数例子中,您从HTTPResponse读取响应体,立即显示结果数据,并注意到它显示为一个字节对象。这是因为计算机中的文本信息不是以字母的形式存储或传输的,而是以字节的形式!

通过网络发送的原始 HTTP 消息被分解成一系列的字节,有时被称为八位字节。字节是 8- 块。例如,01010101是一个字节。要了解关于二进制、位和字节的更多信息,请查看 Python 中的位运算符。

那么如何用字节表示字母呢?一个字节有 256 种可能的组合,你可以给每种组合分配一个字母。您可以将00000001分配给A,将00000010分配给B,以此类推。 ASCII 字符编码,相当普遍,使用这种类型的系统编码 128 个字符,对于英语这样的语言来说足够了。这非常方便,因为只要一个字节就可以表示所有的字符,还留有空间。

所有标准的英语字符,包括大写字母、标点符号和数字,都适合 ASCII。另一方面日语被认为有大约五万个标识字符所以 128 个字符是不够的!即使一个字节理论上有 256 个字符,对日语来说也远远不够。因此,为了适应世界上所有的语言,有许多不同的字符编码系统。

即使有许多系统,你可以依赖的一件事是它们总是被分成字节的事实。大多数服务器,如果不能解析 MIME 类型和字符编码,默认为application/octet-stream,字面意思是字节流。然后,接收消息的人可以计算出字符编码。

Remove ads

处理字符编码

正如您可能已经猜到的那样,问题经常出现,因为有许多不同的潜在字符编码。今天占主导地位的字符编码是 UTF-8 ,它是 Unicode 的一个实现。幸运的是,今天百分之九十八的网页都是用 UTF-8 编码的!

UTF 8 占优势,因为它可以有效地处理数量惊人的字符。它处理 Unicode 定义的所有 1112064 个潜在字符,包括中文、日文、阿拉伯文(从右到左书写)、俄文和更多字符集,包括表情符号

UTF-8 仍然有效,因为它使用可变数量的字节来编码字符,这意味着对于许多字符,它只需要一个字节,而对于其他字符,它可能需要多达四个字节。

注意:要了解更多关于 Python 中的编码,请查看 Python 中的 Unicode &字符编码:无痛指南

虽然 UTF-8 占主导地位,并且假设 UTF-8 编码通常不会出错,但您仍然会一直遇到不同的编码。好消息是,在使用urllib.request时,你不需要成为编码专家来处理它们。

从字节到字符串

当您使用urllib.request.urlopen()时,响应的主体是一个 bytes 对象。您可能要做的第一件事是将 bytes 对象转换为字符串。也许你想做一些网络搜集。为此,你需要解码字节。要用 Python 解码字节,你只需要找出使用的字符编码。编码,尤其是当提到字符编码时,通常被称为字符集

如上所述,在 98%的情况下,您可能会安全地默认使用 UTF-8:

>>> from urllib.request import urlopen
>>> with urlopen("https://www.example.com") as response:
...     body = response.read()
...
>>> decoded_body = body.decode("utf-8")
>>> print(decoded_body[:30])
<!doctype html>
<html>
<head>

在本例中,您获取从response.read()返回的 bytes 对象,并使用 bytes 对象的.decode()方法对其进行解码,将utf-8作为参数传入。当你打印 decoded_body时,你可以看到它现在是一个字符串。

也就是说,听天由命很少是一个好策略。幸运的是,标题是获取字符集信息的好地方:

>>> from urllib.request import urlopen
>>> with urlopen("https://www.example.com") as response:
...     body = response.read()
...
>>> character_set = response.headers.get_content_charset()
>>> character_set
'utf-8'
>>> decoded_body = body.decode(character_set)
>>> print(decoded_body[:30])
<!doctype html>
<html>
<head>

在这个例子中,你在response.headers对象上调用.get_content_charset(),并使用它来解码。这是一个方便的方法,它解析Content-Type头,这样您就可以轻松地将字节解码成文本。

从字节到文件

如果你想把字节解码成文本,现在你可以开始了。但是,如果您想将响应的主体写入文件,该怎么办呢?好吧,你有两个选择:

  1. 将字节直接写入文件
  2. 将字节解码成 Python 字符串,然后将字符串编码回文件

第一种方法最简单,但是第二种方法允许您根据需要更改编码。要更详细地了解文件操作,请看一下 Real Python 的用 Python (Guide) 读写文件。

要将字节直接写入文件而无需解码,您需要内置的 open() 函数,并且您需要确保使用写二进制模式:

>>> from urllib.request import urlopen
>>> with urlopen("https://www.example.com") as response:
...     body = response.read()
...
>>> with open("example.html", mode="wb") as html_file: ...     html_file.write(body)
...
1256

wb模式下使用open()绕过了解码或编码的需要,将 HTTP 消息体的字节转储到example.html文件中。写操作后输出的数字表示已经写入的字节数。就是这样!您已经将字节直接写入文件,没有进行任何编码或解码。

现在假设您有一个不使用 UTF 8 的 URL但是您想将内容写入一个使用 UTF 8 的文件。为此,首先将字节解码成字符串,然后将字符串编码成文件,指定字符编码。

谷歌的主页似乎根据你的位置使用不同的编码。在欧洲和美国的大部分地区,它使用 ISO-8859-1 编码:

>>> from urllib.request import urlopen
>>> with urlopen("https://www.google.com") as response:
...     body = response.read()
...
>>> character_set = response.headers.get_content_charset()
>>> character_set
'ISO-8859-1'
>>> content = body.decode(character_set)
>>> with open("google.html", encoding="utf-8", mode="w") as file:
...     file.write(content)
...
14066

在这段代码中,您获得了响应字符集,并使用它将 bytes 对象解码成一个字符串。然后,您将字符串写入一个文件,使用 UTF-8 编码它。

注意:有趣的是,谷歌似乎有各种各样的检查层,用来决定网页使用何种语言和编码。这意味着你可以指定一个 Accept-Language,它似乎覆盖了你的 IP 地址。尝试使用不同的区域标识符来看看你能得到什么样的编码!

写入文件后,您应该能够在浏览器或文本编辑器中打开结果文件。大多数现代文本处理器可以自动检测字符编码。

如果存在编码错误,并且您正在使用 Python 读取文件,那么您可能会得到一个错误:

>>> with open("encoding-error.html", mode="r", encoding="utf-8") as file:
...     lines = file.readlines()
...
UnicodeDecodeError:
 'utf-8' codec can't decode byte

Python 显式地停止了这个过程并引发了一个异常,但是在一个显示文本的程序中,比如你正在查看这个页面的浏览器,你可能会发现臭名昭著的替换字符:

Unicode Replacement Character

A Replacement Character

带白色问号的黑色菱形(ᦅ)、正方形(□)和矩形(▯)通常用于替换无法解码的字符。

有时,解码看似可行,但会产生难以理解的序列,如*?到-到-到。*,这也暗示使用了错误的字符集。在日本,他们甚至有一个词来形容由于字符编码问题而产生的乱码,即 Mojibake ,因为这些问题在互联网时代开始时就困扰着他们。

这样,您现在应该可以用从urlopen()返回的原始字节编写文件了。在下一节中,您将学习如何使用 json 模块将字节解析到 Python 字典中。

Remove ads

从字节到字典

对于application/json响应,您通常会发现它们不包含任何编码信息:

>>> from urllib.request import urlopen
>>> with urlopen("https://httpbin.org/json") as response:
...     body = response.read()
...
>>> character_set = response.headers.get_content_charset()
>>> print(character_set)
None

在这个例子中,您使用了 httpbinjson端点,这个服务允许您试验不同类型的请求和响应。json端点模拟一个返回 JSON 数据的典型 API。请注意.get_content_charset()方法在其响应中不返回任何内容。

即使没有字符编码信息,也不会全部丢失。根据 RFC 4627 UTF-8 的默认编码是application/json规范的绝对要求。这并不是说每一台服务器都遵守规则,但是一般来说,如果 JSON 被传输,它几乎总是使用 UTF-8 编码。

幸运的是,json.loads()在幕后解码字节对象,甚至在它可以处理的不同编码方面有一些余地。因此,json.loads()应该能够处理您扔给它的大多数字节对象,只要它们是有效的 JSON:

>>> import json
>>> json.loads(body)
{'slideshow': {'author': 'Yours Truly', 'date': 'date of publication', 'slides'
: [{'title': 'Wake up to WonderWidgets!', 'type': 'all'}, {'items': ['Why <em>W
onderWidgets</em> are great', 'Who <em>buys</em> WonderWidgets'], 'title': 'Ove
rview', 'type': 'all'}], 'title': 'Sample Slide Show'}}

如您所见,json模块自动处理解码并生成一个 Python 字典。几乎所有的 API 都以 JSON 的形式返回键值信息,尽管您可能会遇到一些使用 XML 的旧 API。为此您可能想看看 Python 中 XML 解析器的路线图。

有了这些,你应该对字节和编码有足够的了解。在下一节中,您将学习如何对使用urllib.request时可能遇到的一些常见错误进行故障诊断和修复。

常见urllib.request故障

不管你有没有使用urllib.request,在这个世界狂野的网络上你都会遇到各种各样的问题。在本节中,您将学习如何在开始时处理几个最常见的错误: 403错误TLS/SSL 证书错误。不过,在查看这些特定的错误之前,您将首先学习如何在使用urllib.request时更普遍地实现错误处理

实施错误处理

在您将注意力转向特定的错误之前提高您的代码优雅地处理各种错误的能力将会得到回报。Web 开发受到错误的困扰,您可以投入大量时间明智地处理错误。在这里,您将学习在使用urllib.request时处理 HTTP、URL 和超时错误。

HTTP 状态代码伴随着状态行中的每个响应。如果您可以在响应中读取状态代码,那么请求就到达了它的目标。虽然这很好,但是只有当响应代码以2开头时,您才能认为请求完全成功。例如,200201代表成功的请求。例如,如果状态码是404500,则出错了,urllib.request会抛出一个 HTTPError

有时会发生错误,提供的 URL 不正确,或者由于其他原因无法建立连接。在这些情况下,urllib.request会养出一个 URLError

最后,有时服务器就是不响应。也许您的网络连接速度慢,服务器关闭,或者服务器被编程为忽略特定的请求。为了处理这个问题,您可以将一个timeout参数传递给urlopen()以在一定时间后引发一个 TimeoutError

处理这些异常的第一步是捕捉它们。您可以利用HTTPErrorURLErrorTimeoutError类,用tryexcept块捕获urlopen()内产生的错误:

# request.py

from urllib.error import HTTPError, URLError from urllib.request import urlopen

def make_request(url):
    try:
 with urlopen(url, timeout=10) as response:            print(response.status)
            return response.read(), response
 except HTTPError as error:        print(error.status, error.reason)
 except URLError as error:        print(error.reason)
 except TimeoutError:        print("Request timed out")

函数make_request()将一个 URL 字符串作为参数,尝试用urllib.request从该 URL 获得响应,并捕捉在出错时引发的HTTPError对象。如果 URL 是坏的,它将捕获一个URLError。如果没有任何错误,它将打印状态并返回一个包含主体和响应的元组。回应将在return后关闭。

该函数还使用一个timeout参数调用urlopen(),这将导致在指定的秒数后引发一个TimeoutError。十秒钟通常是等待响应的合适时间,不过和往常一样,这在很大程度上取决于您需要向哪个服务器发出请求。

现在,您已经准备好优雅地处理各种错误,包括但不限于您将在接下来讨论的错误。

Remove ads

处理403错误

现在您将使用make_request()函数向 httpstat.us 发出一些请求,这是一个用于测试的模拟服务器。这个模拟服务器将返回具有您所请求的状态代码的响应。例如,如果你向https://httpstat.us/200发出请求,你应该期待一个200的响应。

像 httpstat.us 这样的 API 用于确保您的应用程序能够处理它可能遇到的所有不同的状态代码。httpbin 也有这个功能,但是 httpstat.us 有更全面的状态代码选择。它甚至还有臭名昭著的半官方 418状态码,返回消息我是茶壶

要与您在上一节中编写的make_request()函数进行交互,请在交互模式下运行该脚本:

$ python3 -i request.py

使用-i标志,该命令将在交互模式下运行脚本。这意味着它将执行脚本,然后打开 Python REPL ,因此您现在可以调用您刚刚定义的函数:

>>> make_request("https://httpstat.us/200")
200
(b'200 OK', <http.client.HTTPResponse object at 0x0000023D612660B0>)
>>> make_request("https://httpstat.us/403")
403 Forbidden

在这里,您尝试了 httpstat.us 的200403端点。200端点按照预期通过并返回响应体和响应对象。403端点只是打印了错误消息,没有返回任何东西,这也是意料之中的。

403 状态意味着服务器理解了请求,但不会执行它。这是一个你会遇到的常见错误,尤其是在抓取网页的时候。在许多情况下,您可以通过传递一个用户代理头来解决这个问题。

注意:有两个密切相关的 4xx 代码有时会引起混淆:

  1. 401未经授权
  2. 403

如果用户没有被识别或登录,服务器应该返回401,并且必须做一些事情来获得访问权,比如登录或注册。

如果用户被充分识别,但没有访问资源的权限,则应该返回403状态。例如,如果你登录了一个社交媒体账户,并试图查看一个人的个人资料页面,那么你很可能会获得一个403状态。

也就是说不要完全信任状态代码。在复杂的分布式服务中bug 是存在的,也是常见的。有些服务器根本就不是模范公民!

服务器识别谁或什么发出请求的主要方法之一是检查User-Agent头。由urllib.request发送的原始默认请求如下:

GET https://httpstat.us/403 HTTP/1.1
Accept-Encoding: identity
Host: httpstat.us
User-Agent: Python-urllib/3.10
Connection: close

请注意,User-Agent被列为Python-urllib/3.10。你可能会发现一些网站会试图屏蔽网页抓取器,这个User-Agent就是一个很好的例子。也就是说,你可以用urllib.request来设置你自己的User-Agent,尽管你需要稍微修改一下你的函数:

 # request.py from urllib.error import HTTPError, URLError -from urllib.request import urlopen +from urllib.request import urlopen, Request -def make_request(url): +def make_request(url, headers=None): +    request = Request(url, headers=headers or {}) try: -        with urlopen(url, timeout=10) as response: +        with urlopen(request, timeout=10) as response: print(response.status) return response.read(), response except HTTPError as error: print(error.status, error.reason) except URLError as error: print(error.reason) except TimeoutError: print("Request timed out")

要定制随请求发出的标题,首先必须用 URL 实例化一个 Request 对象。此外,您可以传入一个headers关键字参数,它接受一个标准字典来表示您希望包含的任何头。因此,不是将 URL 字符串直接传递给urlopen(),而是传递这个已经用 URL 和头实例化的Request对象。

注意:在上面的例子中,当Request被实例化时,你需要给它传递头文件,如果它们已经被定义的话。否则,传递一个空白对象,比如{}。你不能通过None,因为这会导致错误。

要使用这个修改过的函数,重新启动交互会话,然后调用make_request(),用一个字典将头表示为一个参数:

>>> body, response = make_request(
...     "https://www.httpbin.org/user-agent",
...     {"User-Agent": "Real Python"}
... )
200
>>> body
b'{\n  "user-agent": "Real Python"\n}\n'

在这个例子中,您向 httpbin 发出一个请求。这里您使用user-agent端点来返回请求的User-Agent值。因为您是通过定制用户代理Real Python发出请求的,所以这是返回的内容。

不过,有些服务器很严格,只接受来自特定浏览器的请求。幸运的是,可以在网上找到标准的User-Agent字符串,包括通过用户代理数据库。它们只是字符串,所以您需要做的就是复制您想要模拟的浏览器的用户代理字符串,并将其用作User-Agent头的值。

Remove ads

修复 SSL CERTIFICATE_VERIFY_FAILED错误

另一个常见错误是由于 Python 无法访问所需的安全证书。为了模拟这个错误,你可以使用一些已知不良 SSL 证书的模拟网站,由badssl.com提供。您可以向其中一个(如superfish.badssl.com)发出请求,并直接体验错误:

>>> from urllib.request import urlopen
>>> urlopen("https://superfish.badssl.com/")
Traceback (most recent call last):
 (...)
ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED]
certificate verify failed: unable to get local issuer certificate (_ssl.c:997)

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
 (...)
urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED]
certificate verify failed: unable to get local issuer certificate (_ssl.c:997)>

这里,用已知的坏 SSL 证书向一个地址发出请求将导致CERTIFICATE_VERIFY_FAILED,它是URLError的一种类型。

SSL 代表安全套接字层。这有点用词不当,因为 SSL 已被弃用,取而代之的是 TLS、传输层安全性。有时旧的术语只是坚持!这是一种加密网络流量的方法,这样一个假想的监听者就无法窃听到通过网络传输的信息。

如今,大多数网站的地址不是以http://开头,而是以https://开头,其中代表安全*。 HTTPS 连接必须通过 TLS 加密。urllib.request可以处理 HTTP 和 HTTPS 连接。*

HTTPS 的细节远远超出了本教程的范围,但是您可以将 HTTPS 连接想象成包含两个阶段,握手和信息传输。握手确保连接是安全的。有关 Python 和 HTTPS 的更多信息,请查看使用 Python 探索 HTTPS 的。

为了确定特定的服务器是安全的发出请求的程序依赖于存储的可信证书。握手阶段会验证服务器的证书。Python 使用操作系统的证书库。如果 Python 找不到系统的证书存储库,或者存储库过期,那么您就会遇到这个错误。

注意:在之前的 Python 版本中,urllib.request的默认行为是而不是验证证书,这导致 PEP 476 默认启用证书验证。在 Python 3.4.3 中默认改变。

有时Python 可以访问的证书存储区已经过期,或者 Python 无法访问它,不管是什么原因。这是令人沮丧的,因为你有时可以从你的浏览器访问 URL它认为它是安全的然而urllib.request仍然引发这个错误。

你可能很想选择不验证证书,但这会使你的连接不安全,并且绝对不推荐:

>>> import ssl
>>> from urllib.request import urlopen
>>> unverified_context = ssl._create_unverified_context()
>>> urlopen("https://superfish.badssl.com/", context=unverified_context)
<http.client.HTTPResponse object at 0x00000209CBE8F220>

这里您导入了 ssl 模块,它允许您创建一个未验证的上下文。然后,您可以将这个上下文传递给urlopen()并访问一个已知的坏 SSL 证书。因为没有检查 SSL 证书,所以连接成功通过。

在采取这些孤注一掷的措施之前,请尝试更新您的操作系统或 Python 版本。如果失败了,那么您可以从requests库中取出一个页面并安装certifi:

PS> python -m venv venv
PS> .\venv\Scripts\activate
(venv) PS> python -m pip install certifi
$ python3 -m venv venv
$ source venv/bin/activate.sh
(venv) $ python3 -m pip install certifi

certifi 是一个证书集合,你可以用它来代替你系统的集合。您可以通过使用certifi证书包而不是操作系统的证书包来创建 SSL 上下文:

>>> import ssl
>>> from urllib.request import urlopen
>>> import certifi
>>> certifi_context = ssl.create_default_context(cafile=certifi.where())
>>> urlopen("https://sha384.badssl.com/", context=certifi_context)
<http.client.HTTPResponse object at 0x000001C7407C3490>

在这个例子中,您使用了certifi作为您的 SSL 证书库,并使用它成功地连接到一个具有已知良好 SSL 证书的站点。请注意,您使用的是.create_default_context(),而不是._create_unverified_context()

这样,您可以保持安全,而不会有太多的麻烦!在下一节中,您将尝试身份验证。

Remove ads

认证请求

认证是一个庞大的主题,如果您正在处理的认证比这里讨论的要复杂得多,这可能是进入requests包的一个很好的起点。

在本教程中,您将只讨论一种身份验证方法,它作为对您的请求进行身份验证所必须进行的调整类型的示例。确实有很多其他功能有助于身份验证,但这不会在本教程中讨论。

最常见的认证工具之一是不记名令牌,由 RFC 6750 指定。它经常被用作 OAuth 的一部分,但也可以单独使用。它也是最常见的标题,您可以在当前的make_request()函数中使用它:

>>> token = "abcdefghijklmnopqrstuvwxyz"
>>> headers = {
...     "Authorization": f"Bearer {token}"
... }
>>> make_request("https://httpbin.org/bearer", headers)
200
(b'{\n  "authenticated": true, \n  "token": "abcdefghijklmnopqrstuvwxyz"\n}\n',
<http.client.HTTPResponse object at 0x0000023D612642E0>)

在这个例子中,您向 httpbin /bearer端点发出一个请求,它模拟了载体认证。它将接受任何字符串作为令牌。它只需要 RFC 6750 指定的正确格式。名字Authorization,或者有时是小写的authorization,值Bearer,在值和令牌之间有一个空格。

注意:如果您使用任何形式的令牌或秘密信息,请确保妥善保护这些令牌。例如,不要将它们提交给 GitHub 库,而是将它们存储为临时的环境变量

恭喜您,您已经使用不记名令牌成功认证!

另一种形式的认证称为 基本访问认证 ,这是一种非常简单的认证方法,仅比在报头中发送用户名和密码稍微好一点。很没有安全感!

当今最常用的协议之一是 【开放授权】 。如果你曾经使用过谷歌、GitHub 或脸书登录另一个网站,那么你就使用过 OAuth。OAuth 流通常涉及您希望与之交互的服务和身份服务器之间的一些请求,从而产生一个短期的承载令牌。然后,该承载令牌可以与承载认证一起使用一段时间。

大部分身份验证归结于理解目标服务器使用的特定协议,并仔细阅读文档以使其工作。

urllib.request 发布请求

您已经发出了许多 GET 请求,但是有时您想要发送信息。这就是发布请求的来源。要使用urllib.request进行 POST 请求,您不必显式地更改方法。你可以将一个data对象传递给一个新的Request对象或者直接传递给urlopen()。然而,data对象必须是一种特殊的格式。您将通过添加data参数来稍微修改您的make_request()函数以支持 POST 请求:

 # request.py from urllib.error import HTTPError, URLError from urllib.request import urlopen, Request -def make_request(url, headers=None): +def make_request(url, headers=None, data=None): -    request = Request(url, headers=headers or {}) +    request = Request(url, headers=headers or {}, data=data) try: with urlopen(request, timeout=10) as response: print(response.status) return response.read(), response except HTTPError as error: print(error.status, error.reason) except URLError as error: print(error.reason) except TimeoutError: print("Request timed out")

在这里,您只是修改了函数来接受一个默认值为Nonedata参数,并将该参数传递给了Request实例化。然而,这并不是所有需要做的事情。您可以使用两种不同的格式之一来执行 POST 请求:

  1. 表格数据 : application/x-www-form-urlencoded
  2. JSON : application/json

第一种格式是 POST 请求最古老的格式,它涉及到用百分比编码对数据进行编码,也称为 URL 编码。您可能已经注意到键值对 URL 编码为一个查询字符串。键用等号(=)与值分开,键-值对用&符号(&)分开,空格通常被取消,但可以用加号(+)代替。

如果您从 Python 字典开始,要将表单数据格式用于您的make_request()函数,您需要编码两次:

  1. 一次对字典进行 URL 编码
  2. 然后再次将结果字符串编码成字节

对于 URL 编码的第一阶段,您将使用另一个urllib模块urllib.parse。记得在交互模式下启动你的脚本,这样你就可以使用make_request()功能并在 REPL 上玩它:

>>> from urllib.parse import urlencode
>>> post_dict = {"Title": "Hello World", "Name": "Real Python"}
>>> url_encoded_data = urlencode(post_dict)
>>> url_encoded_data
'Title=Hello+World&Name=Real+Python'
>>> post_data = url_encoded_data.encode("utf-8")
>>> body, response = make_request(
...     "https://httpbin.org/anything", data=post_data
... )
200
>>> print(body.decode("utf-8"))
{
 "args": {},
 "data": "",
 "files": {},
 "form": { "Name": "Real Python", "Title": "Hello World" }, "headers": {
 "Accept-Encoding": "identity",
 "Content-Length": "34",
 "Content-Type": "application/x-www-form-urlencoded",
 "Host": "httpbin.org",
 "User-Agent": "Python-urllib/3.10",
 "X-Amzn-Trace-Id": "Root=1-61f25a81-03d2d4377f0abae95ff34096"
 },
 "json": null,
 "method": "POST", "origin": "86.159.145.119",
 "url": "https://httpbin.org/anything"
}

在本例中,您可以:

  1. urllib.parse模块导入urlencode()
  2. 初始化你的文章数据,从字典开始
  3. 使用urlencode()功能对字典进行编码
  4. 使用 UTF-8 编码将结果字符串编码成字节
  5. httpbin.organything端点发出请求
  6. 打印 UTF-8 解码响应正文

UTF-8 编码是application/x-www-form-urlencoded类型的规范的一部分。UTF-8 被优先用于解码身体,因为你已经知道httpbin.org可靠地使用 UTF-8。

来自 httpbin 的anything端点充当一种 echo返回它接收到的所有信息以便您可以检查您所做请求的细节。在这种情况下你可以确认method确实是POST,你可以看到你发送的数据列在form下面。

要使用 JSON 发出同样的请求,您将使用json.dumps()将 Python 字典转换成 JSON 字符串,使用 UTF-8 对其进行编码,将其作为data参数传递,最后添加一个特殊的头来指示数据类型是 JSON:

>>> post_dict = {"Title": "Hello World", "Name": "Real Python"}
>>> import json
>>> json_string = json.dumps(post_dict) >>> json_string
'{"Title": "Hello World", "Name": "Real Python"}'
>>> post_data = json_string.encode("utf-8")
>>> body, response = make_request(
...     "https://httpbin.org/anything",
...     data=post_data,
...     headers={"Content-Type": "application/json"}, ... )
200
>>> print(body.decode("utf-8"))
{
 "args": {},
 "data": "{\"Title\": \"Hello World\", \"Name\": \"Real Python\"}",
 "files": {},
 "form": {},
 "headers": {
 "Accept-Encoding": "identity",
 "Content-Length": "47",
 "Content-Type": "application/json",
 "Host": "httpbin.org",
 "User-Agent": "Python-urllib/3.10",
 "X-Amzn-Trace-Id": "Root=1-61f25a81-3e35d1c219c6b5944e2d8a52"
 },
 "json": { "Name": "Real Python", "Title": "Hello World" }, "method": "POST", "origin": "86.159.145.119",
 "url": "https://httpbin.org/anything"
}

这次为了序列化字典,您使用json.dumps()而不是urlencode()。您还显式添加了值为application/jsonContent-Type。有了这些信息httpbin 服务器可以在接收端反序列化 JSON。在它的回复中你可以看到列在json键下的数据。

注意:有时候需要以纯文本的形式发送 JSON 数据,这种情况下步骤同上,只是你把Content-Type设置为text/plain; charset=UTF-8。很多这些必需品依赖于你发送数据的服务器或 API所以一定要阅读文档并进行实验

这样,你现在就可以开始发布请求了。本教程不会详细介绍其他请求方法,比如 PUT 。我只想说,您也可以通过向 Request对象的实例化传递一个method关键字参数来显式设置该方法。

Remove ads

请求包生态系统

为了使事情更加完整,本教程的最后一部分将致力于阐明 Python 中 HTTP 请求的包生态系统。因为有很多套餐,没有明确的标准,会比较混乱。也就是说,每个包都有用例,这意味着您有更多的选择!

什么是urllib2urllib3

要回答这个问题,你需要追溯到早期的 Python一直追溯到 1.2 版本,最初的 urllib 推出的时候。在 1.6 版本左右,增加了一个改版的 urllib2 ,它与原来的urllib并存。当 Python 3 出现时,最初的urllib被弃用,urllib2放弃了2,取了最初的urllib名称。它也分裂成几部分:

那么 urllib3 呢?那是在urllib2还在的时候开发的第三方库。它与标准库无关,因为它是一个独立维护的库。有意思的是,requests库居然在遮光罩下使用urllib3 pip 也是如此!

什么时候应该用requests而不用urllib.request

主要答案是易用性和安全性。urllib.request被认为是一个低级的库,它公开了许多关于 HTTP 请求工作的细节。针对urllib.request的 Python 文档毫不犹豫地推荐requests作为更高级的 HTTP 客户端接口。

如果您日复一日地与许多不同的 REST APIs 交互,那么强烈推荐使用requestsrequests库标榜自己为“为人类而建”,并成功地围绕 HTTP 创建了一个直观、安全和简单的 API。它通常被认为是最重要的图书馆如果你想了解更多关于requests库的信息,请查看真正的 Pythonrequests指南。

关于requests如何让事情变得更简单的一个例子是字符编码。你会记得使用urllib.request时,你必须了解编码,并采取一些步骤来确保没有错误的体验。requests包将它抽象出来,并通过使用 chardet (一种通用的字符编码检测器)来解析编码,以防有什么有趣的事情发生。

如果你的目标是学习更多关于标准 Python 和它如何处理 HTTP 请求的细节,那么urllib.request是一个很好的方法。你甚至可以更进一步,使用非常低级的 http模块。另一方面,你可能只是想将依赖性保持在最低限度,而urllib.request完全有能力做到这一点。

为什么requests不是标准库的一部分?

也许你想知道为什么requests现在还不是核心 Python 的一部分。

这是一个复杂的问题,没有简单快速的答案。关于原因有许多猜测,但有两个原因似乎很突出:

  1. requests有其他需要集成的第三方依赖关系。
  2. 需要保持敏捷,并且能够在标准库之外做得更好。

requests库具有第三方依赖性。将requests集成到标准库中也意味着集成chardetcertifiurllib3等等。另一种选择是从根本上改变requests,只使用 Python 现有的标准库。这不是一项简单的任务!

整合requests也意味着开发这个库的现有团队将不得不放弃对设计和实现的完全控制,让位于 PEP 决策过程。

HTTP 规范和建议一直在变化,一个高水平的库必须足够敏捷才能跟上。如果有一个安全漏洞需要修补,或者有一个新的工作流需要添加,requests团队可以比作为 Python 发布过程的一部分更快地构建和发布。据说曾经有过这样的情况,他们在漏洞被发现 12 小时后发布了一个安全补丁!

关于这些问题的有趣概述,请查看向标准库添加请求,其中总结了在 Python 语言峰会上与请求的创建者和维护者 Kenneth Reitz 的讨论。

因为这种敏捷性对于requests和它的底层urllib3来说是如此的必要,所以经常使用矛盾的说法,即requests对于标准库来说太重要了。这是因为 Python 社区如此依赖于requests及其灵活性,以至于将它集成到核心 Python 中可能会损害它和 Python 社区。

requests的 GitHub 库问题板上,发布了一个问题,要求将 requests包含在标准库中。requestsurllib3的开发者插话说,他们很可能会对自己维护它失去兴趣。一些人甚至说他们将分叉存储库并继续为他们自己的用例开发它们。

也就是说,注意requests库 GitHub 存储库是托管在 Python 软件基金会的账户下的。仅仅因为某些东西不是 Python 标准库的一部分,并不意味着它不是生态系统不可分割的一部分!

似乎目前的情况对 Python 核心团队和requests的维护者都有效。虽然对于新手来说可能有点困惑,但是现有的结构为 HTTP 请求提供了最稳定的体验。

同样重要的是要注意 HTTP 请求本质上是复杂的。不要试图掩饰得太多。它公开了 HTTP 请求的许多内部工作方式,这就是它被称为低级模块的原因。您选择requests还是urllib.request实际上取决于您的特定用例、安全考虑和偏好。

Remove ads

结论

现在,您可以使用urllib.request来发出 HTTP 请求了。现在,您可以在您的项目中使用这个内置模块,让它们在更长时间内保持无依赖性。您还通过使用较低级别的模块,如urllib.request,对 HTTP 有了深入的了解。

在本教程中,您已经:

  • 学会了如何用urllib.request制作基本的 HTTP 请求
  • 探究了一条 HTTP 消息的具体细节,并研究了它是如何被urllib.request表示的
  • 弄清楚如何处理 HTTP 消息的字符编码
  • 探究使用urllib.request时的一些常见错误,并学习如何解决它们
  • urllib.request尝试一下认证请求的世界
  • 理解了为什么urllibrequests库都存在,以及何时使用其中一个

现在,您已经能够使用urllib.request发出基本的 HTTP 请求,并且您还拥有使用标准库深入底层 HTTP 领域的工具。最后,你可以选择是使用requests还是urllib.request,这取决于你想要什么或者需要什么。尽情探索网络吧!

了解更多: ,获取新的 Python 教程和新闻,让您成为更有效的 Python 爱好者。****************