当前位置:首页 » python爬虫 » 正文

Requests什么的通通爬不了的Python超强反爬虫方案!

544 次  2021-07-20  分类 : python爬虫
```

可以看到,HTML 就成功被我们获取到了!这就是 HTTP/2.0 的魔法!

我们如果把 http2 参数设置为 False 呢?

```python import httpx client = httpx.Client(http2=False) response = client.get('https://spa16.scrape.center/') print(response.text) ```

一样很不幸:

```python Traceback (most recent call last):  ...     raise RemoteProtocolError(msg) httpcore.RemoteProtocolError: Server disconnected without sending a response. The above exception was the direct cause of the following exception:   ...     raise mapped_exc(message) from exc httpx.RemoteProtocolError: Server disconnected without sending a response. ```

所以,这就印证了,只要 HTTP/1.x 通通没法治!可以给 requests 烧香了!

又一个无敌反爬虫诞生了!各大站长们,安排起来吧~

到此这篇关于Requests什么的通通爬不了的Python超强反爬虫方案!的文章就介绍到这了,更多相关Python反爬虫内容请搜索python博客以前的文章或继续浏览下面的相关文章希望大家以后多多支持python博客!

来源:python博客 欢迎分享!

本文链接:https://www.94e.cn/info/7150

标签:scrapy  requests  nginx  urllib  

<< 上一篇 下一篇 >>

  Powered By python教程网   鲁ICP备18013710号
python博客 - 小白学python最友好的网站!

扫一扫,关注微信公众号 扫一扫,关注微信公众号