重慶分公司,新征程啟航
為企業(yè)提供網(wǎng)站建設(shè)、域名注冊、服務(wù)器等服務(wù)
為企業(yè)提供網(wǎng)站建設(shè)、域名注冊、服務(wù)器等服務(wù)
前段時間喜歡用python去抓一些頁面玩,但都基本上都是用get請求一些頁面,再通過正則去過濾。
今天試了一下,模擬登陸個人網(wǎng)站。發(fā)現(xiàn)也比較簡單。讀懂本文需要對http協(xié)議和http會話有一定的理解。
注明:因為模擬登陸的是我的個人網(wǎng)站,所以以下代碼對個人網(wǎng)站和賬號密碼做了處理。
網(wǎng)站分析
爬蟲的必備第一步,分析目標(biāo)網(wǎng)站。這里使用谷歌瀏覽器的開發(fā)者者工具分析。
通過登陸抓取,看到這樣一個請求。
上方部分為請求頭,下面部分為請求是傳的參數(shù)。由圖片可以看出,頁面通過表單提交了三個參數(shù)。分別為_csrf,usermane,password。
其中csrf是為了預(yù)防跨域腳本偽造。原理很簡單,就是每一次請求,服務(wù)器生成一串加密字符串。放在隱藏的input表單中。再一次請求的時候,把這個字符串一起傳過去,為了驗證是否為同一個用戶的請求。
因此,我們的代碼邏輯就有了。首先請求一次登錄頁面。然后分析頁面,拿到csrf字符串。最后把這個字符串和賬號密碼一起傳給服務(wù)器用來登錄。
第一份代碼
#!/usr/bin/env python2.7 # -*- coding: utf-8 -*- import requests import re # 頭部信息 headers = { 'Host':"localhost", 'Accept-Language':"zh-CN,zh;q=0.8", 'Accept-Encoding':"gzip, deflate", 'Content-Type':"application/x-www-form-urlencoded", 'Connection':"keep-alive", 'Referer':"http://localhost/login", 'User-Agent':"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36" } # 登陸方法 def login(url,csrf): data = { "_csrf" : csrf, "username": "xiedj", "password": "***" } response = requests.post(url, data=data, headers=headers) return response.content # 第一次訪問獲取csrf值 def get_login_web(url): page = requests.get('http://localhost/login') reg = r'' csrf = re.findall(reg,page.content)[0] login_page = login(url,csrf) print login_page if __name__ == "__main__": url = "http://localhost/login/checklogin" get_login_web(url)