1. 实例描述
通过爬虫获取网页的信息时,有时需要登录网页后才可以获取网页中的可用数据,例如获取 GitHub
网页中的注册号码时,就需要先登录账号才能在登录后的页面中看到该信息,如下图所示。那么该如何实现模拟登录的功能呢?本文实现将通过爬虫实现 GitHub
网页的模拟登录。
2. 代码实现
在实现 GitHub
网页的模拟登录时,首先需要查看提交登录请求时都要哪些请求参数,然后获取登录请求的所有参数,再发送登录请求。如果登录成功的情况下获取页面中的注册号码信息即可。具体步骤如下:
(1) 点击 此处 打开 GitHub
的登录页面,然后输入账号与密码,如下图所示。
(2) 用 F12
或者 鼠标右键单击网页选择 检查
打开浏览器的开发者工具,选择获取网络请求过程,然后单击登录页面中的 Sign in
按钮,此时开发者工具中将显示 GitHub
网页的登录请求过程,重点查找名称为 session
的网络请求。如下图所示。
(3) 单击名称为 session
的网络请求,然后在 Headers
请求信息中主要查看 Request Headers
与 Form Data
中的各种信息,其中红框内为重要参数与数据。如下图所示。
说明:Host
为主页面地址,Referer
为当前请求的来源地址。User-Agent
为浏览器的头部信息。Form Data
中的所有信息都是登录请求的所用参数,其中动态参数为重要参数,authenticity_token
为加密字符串,login
为登录的账号,password
为密码,其它参数为静态参数。由于动态参数只有 authenticity_token
、login
以及password
,而用户名与密码只需要将动态字符串填写对应的位置即可,所以接下来需要获取 authenticity_token
参数所对应的加密字符串。
(4) 在浏览器中退出所登录的 GitHub
账号,返回 GitHub
的登录页面,打开浏览器开发者工具,查看网页的 html
代码,然后在代码中搜索 authenticity_token
关键词,标签内 value
所对应的值为 authenticity_token
参数的加密字符串。如下图所示。
(5) 实现爬虫代码,首先导入所需模块,然后创建头部信息,再通过 Session
会话对象发送网络请求获取 authenticity_token
信息,最后通过所有的登陆请求参数实现 GitHub
网页的登陆请求并提取注册号码。具体代码如下:
# -*- coding: utf-8 -*-
# @Time : 2020/5/10 23:25
# @Author : 我就是任性-Amo
# @FileName: 77.通过爬虫实现GitHub网页的模拟登录.py
# @Software: PyCharm
# @Blog :https://blog.csdn.net/xw1680
import requests # 导入网络请求模块
from lxml import etree # 导入数据解析模块 都是第三方模块需要安装
# pip install requests/lxml如果太慢 可以加上镜像服务器 或者在Pycharm中使用图形化界面进行安装
class GitHubLogin(object):
def __init__(self, username, password):
# 构造头部信息
self.headers = {
"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) "
"AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36",
"Host": "github.com",
"Referer": "https://github.com/login"
}
self.login_url = "https://github.com/login" # 登录页面地址
self.post_url = "https://github.com/session" # 实现登录的请求地址
self.session = requests.Session() # 创建Session会话对象
self.user_name = username # 用户名
self.password = password # 密码
# 获取authenticity_token信息
def get_token(self):
# 发送登录页面的网络请求
response = self.session.get(self.login_url, headers=self.headers)
if response.status_code == 200: # 判断请求是否成功
html = etree.HTML(response.text) # 解析html
# 提取authenticity_token信息
token = html.xpath("//div[@id='login']/form/input[1]/@value")[0]
# print(token) 测试是否能够获取到token
return token # 返回信息
# 实现登录
def login(self):
# 请求参数
post_data = {
"commit": "Sign in",
"authenticity_token": self.get_token(),
"login": self.user_name,
"password": self.password,
"webauthn - support": "supported"
}
# 发送登录请求
response = self.session.post(self.post_url, headers=self.headers, data=post_data)
if response.status_code == 200: # 判断请求是否成功
html = etree.HTML(response.text) # 解析html
# 获取注册号码
register_number = html.xpath("//div[contains(@class,'Header-item')][last()]//strong")[0]
print(f"注册号码为: {register_number.text}")
else:
print("登录失败")
if __name__ == '__main__':
user_name = input("请输入您的用户名:") # 获取输入的用户名
password = input("请输入您的密码:") # 获取输入的密码
login = GitHubLogin(user_name, password) # 创建登录类对象并传递输入的用户名与密码
login.login()
执行以上代码,输入用户名与密码,即可显示获取的注册号码。如下图所示:
到此这篇关于Python 通过爬虫实现GitHub网页的模拟登录的示例代码的文章就介绍到这了,更多相关Python GitHub模拟登录内容请搜索python博客以前的文章或继续浏览下面的相关文章希望大家以后多多支持python博客!
标签:requests
Powered By python教程网 鲁ICP备18013710号
python博客 - 小白学python最友好的网站!