python+selenium获取与使用百度登录cookie

  
from selenium import webdriver
import time
import json

wb = webdriver.Chrome()
wb.get('https://www.baidu.com')
wb.maximize_window()

time.sleep(3)
# 登录链接
url = wb.find_element_by_xpath('//*[@id="u1"]/a').click()
# 切换为用户名密码登录
time.sleep(2)

wb.find_element_by_xpath('//*[@id="TangrAM__PSP_11__footerULoginBtn"]').click()
wb.find_element_by_name('userName').send_keys('******')
wb.find_element_by_name('password').send_keys('******')
wb.find_element_by_id('TangrAM__PSP_11__submit').click()

time.sleep(50)# 留出时间用于处理验证码等

# 抓取cookie
dictCookies = wb.get_cookies()
jsonCookies = json.dumps(dictCookies)
with open('D:\\baiducookies.txt', 'w') as f:
    f.write(jsonCookies)
print('cookies保存成功!')
wb.quit()

# 再打开一个浏览器测试cookie是否成功
wb2 = webdriver.Chrome()
wb2.get('https://www.baidu.com')
wb2.maximize_window()
time.sleep(3)
# 打开保存的cookie文件
with open('D:\\baiducookies.txt', 'r', encoding='utf8') as f:
    listCookies = json.loads(f.read())
for cookie in listCookies:
    wb2.add_cookie(cookie)
# 读取完cookie刷新页面
wb2.refresh()

 

相关文章

功能概要:(目前已实现功能)公共展示部分:1.网站首页展示...
大体上把Python中的数据类型分为如下几类: Number(数字) ...
开发之前第一步,就是构造整个的项目结构。这就好比作一幅画...
源码编译方式安装Apache首先下载Apache源码压缩包,地址为ht...
前面说完了此项目的创建及数据模型设计的过程。如果未看过,...
python中常用的写爬虫的库有urllib2、requests,对于大多数比...