老熟女激烈的高潮_日韩一级黄色录像_亚洲1区2区3区视频_精品少妇一区二区三区在线播放_国产欧美日产久久_午夜福利精品导航凹凸

重慶分公司,新征程啟航

為企業提供網站建設、域名注冊、服務器等服務

Python爬蟲如何正則表達式

今天就跟大家聊聊有關Python爬蟲如何正則表達式,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。

創新互聯主營津南網站建設的網絡公司,主營網站建設方案,app開發定制,津南h5重慶小程序開發搭建,津南網站營銷推廣歡迎津南等地區企業咨詢

爬蟲——爬蟲中使用正則表達式

下面我們嘗試爬取內涵段子網站:http://www.neihan8.com/article/list_5_1.html

打開之后,當你進行翻頁的時候,不難注意到,url地址的變化:

第一頁url: http: //www.neihan8.com/article/list_5_1 .html

第二頁url: http: //www.neihan8.com/article/list_5_2 .html

第三頁url: http: //www.neihan8.com/article/list_5_3 .html

第四頁url: http: //www.neihan8.com/article/list_5_4 .html

這樣,我們把url規律找到了,要想爬取所有的段子,只需要修改一個參數即可。下面,我們就開始一步一步將所有的段子爬取下來。

第一步:獲取網頁數據(網頁上全部內容)

1.按照我們之前的用法,我們需要寫一個加載頁面的方法。

這里我們定義一個類,將url請求作為一個成員方法處理。

我們創建一個duanzi_spider.py文件。

然后定義一個Spider類,并且添加一個加載頁面的成員方法。

#!/usr/bin/python3
# -*- coding:utf-8 -*-
 
import requests
 
class Spider(object):
    """
    一個爬蟲類
    """
    def loadPage(self, url):
        """
        下載指定url頁面的內容
        :return:
        """
        # User-Agent頭
        header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
        Chrome/39.0.2171.71 Safari/537.36'}
        response = requests.get(url = url, headers = header)
        html = response.content.decode("gb18030")
         
        # 打印頁面內容
        print(html)
         
        # 返回頁面內容
        return html

2.寫main函數測試loadPage()方法

if __name__ == '__main__':
    # 實例化類對象
    my_spider = Spider()
    # 讓用戶輸入需爬取頁面的頁碼
    page = int(input("請輸入你需要爬取的頁碼:"))
    # 拼接用戶需爬取頁面的url地址
    url = "http://www.neihan8.com/article/list_5_{}.html".format(page)
    html = my_spider.loadPage(url)

第二步:篩選數據

我們已經得到了整個頁面的數據。但是,里面有很多內容我們并不需要,所以下一步我們需要對上面爬取的內容進行篩選。如果篩選,這里就用到了我們前面講到的正則表達式。

首先

import re

然后:在我們得到的html中進行篩選匹配。

我們需要一個匹配規則:

 我們可以打開內涵段子的網頁,鼠標點擊右鍵“查看源代碼”,你會發現,我們需要的每個段子的內容都是在一個

標簽中,而且每個div都有一個屬性class="f18 mb20"。

所以,我們只需要匹配到網頁中所有

的數據就可以了。

根據正則表達式,我們可以推算出一個公式是:

(.*?)

這個表達式實際上就是匹配到所有div中class="f18 mb20"里面的內容

然后將這個正則應用到代碼中,我們會得到以下代碼:

#!/usr/bin/python3
# -*- coding:utf-8 -*-
 
import requests
import re
 
class Spider(object):
    """
    一個爬蟲類
    """
    def loadPage(self, url):
        """
        下載指定url頁面的內容
        :return:
        """
        # User-Agent頭
        header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
        Chrome/39.0.2171.71 Safari/537.36'}
        response = requests.get(url = url, headers = header)
        html = response.content
 
        return html.decode("gb18030")
 
    def screenPage(self, html):
        """
        篩選html內容,返回列表
        :param html:
        :return:
        """
        # ...
        pattern = re.compile(r'(.*?)
', re.S)         item_list = pattern.findall(html)           return item_list   if __name__ == '__main__':     # 實例化類對象     my_spider = Spider()     # 讓用戶輸入需爬取頁面的頁碼     page = int(input("請輸入你需要爬取的頁碼:"))     # 拼接用戶需爬取頁面的url地址     url = "http://www.neihan8.com/article/list_5_{}.html".format(page)     # 下載網頁內容     html = my_spider.loadPage(url)     # 篩選數據     item_list = my_spider.screenPage(html)

這里需要注意的是re.S是正則表達式中匹配的一個參數。

如果沒有re.S,則是只匹配一行中有沒有符合規則的字符串,如果沒有則下一行重新匹配。

如果加上re.S則是將所有的字符串作為一個整體進行匹配,findall將所有匹配到的結果返回列表中。

第三步:保存數據

我們可以將所有的段子存放在文件中。

def writePage(self, list):
    """
    以追加的形式存儲篩選后的內容
    :param list: 篩選后的數據,列表形式
    :return:
    """
    with open(self.file_name, "a", encoding = "utf-8") as f:
        for content in list:
            # 段子內容:因為段子中有很多

。。。,還有一些轉義字符。在這里作下替換             content = content.replace("…", "…").replace("“", "“").replace("”", "”")             content = content.replace(" ", "").replace("\t", "").replace(":", ":")             content = content.replace("

", "").replace("

", "").replace("", "").replace(" ", "")             content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n")             content = content.strip()               # 寫入一個段子的內容             f.write(content)             # 我是分割線             f.write("*" * 30)

第四步:完整的程序

#!/usr/bin/python3
# -*- coding:utf-8 -*-
 
import requests
import re
 
class Spider(object):
    """
    一個爬蟲類
    """
    def __init__(self, start_page, end_page):
        """
        類的初始化函數
        :param start_page:
        :param end_page:
        :return:
        """
        self.start_page = start_page
        self.end_page = end_page
        self.file_name = "duanzi.txt"
 
    def loadPage(self, url):
        """
        下載指定url頁面的內容
        :return:
        """
        # User-Agent頭
        header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
        Chrome/39.0.2171.71 Safari/537.36'}
        response = requests.get(url = url, headers = header)
        html = response.content
 
        return html.decode("gb18030")
 
    def screenPage(self, html):
        """
        篩選html內容,返回列表
        :param html:
        :return:
        """
        # ...
        pattern = re.compile(r'(.*?)', re.S)         item_list = pattern.findall(html)           return item_list       def writePage(self, list):         """         以追加的形式存儲篩選后的內容         :param list: 篩選后的數據,列表形式         :return:         """         with open(self.file_name, "a", encoding = "utf-8") as f:             for content in list:                 # 段子內容:因為段子中有很多

。。。,還有一些轉義字符。在這里作下替換                 content = content.replace("…", "…").replace("“", "“").replace("”", "”")                 content = content.replace(" ", "").replace("\t", "").replace(":", ":")                 content = content.replace("

", "").replace("

", "").replace("", "").replace(" ", "")                 content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n").replace("\r\n", "\n")                 content = content.strip()                   # 寫入一個段子的內容                 f.write(content)                 # 我是分割線                 f.write("*" * 30)       def run(self):         """         讓爬蟲開始工作         :return:         """         # 循環處理我們需要爬取的頁面         for page in range(self.start_page, self.end_page + 1):             # 拼接當前頁碼page的url地址             url = "http://www.neihan8.com/article/list_5_{}.html".format(str(page))             print("正在下載第{}頁".format(str(page)))             # 下載url對應的全部內容             html = self.loadPage(url)             # 篩選數據             item_list = self.screenPage(html)             # 存儲篩選后的數據             self.writePage(item_list)   # 主函數 if __name__ == '__main__':     # 讓用戶輸入需爬取頁面的起始頁碼     start_page = int(input("請輸入您需要爬取的起始頁:"))     # 讓用戶輸入需爬取頁面的終止頁碼     end_page   = int(input("請輸入您需要爬取的終止頁:"))     # 實例化類對象     mySpider = Spider(start_page, end_page)     # 讓爬蟲開始工作     mySpider.run()

最后,我們執行上面的代碼,完成后查看當前路徑下的duanzi.txt文件,里面已經有我們要的內涵段子。

以上便是一個非常精簡的小爬蟲程序,使用起來很方便,如果想要爬取其他網站的信息,只需要修改其中某些參數和一些細節就行了。

看完上述內容,你們對Python爬蟲如何正則表達式有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注創新互聯行業資訊頻道,感謝大家的支持。


本文題目:Python爬蟲如何正則表達式
鏈接URL:http://www.xueling.net.cn/article/gisscc.html 主站蜘蛛池模板: 午夜久久久久久久久久影院 | 饥渴女上位高潮呻吟在线播放 | 日韩精品成人 | 国产精品久久人妻无码网站 | 成人123区| 国产三区在线观看视频 | 日韩在线视频欧美 | 日本高清视频一区二区三区四区 | 内射少妇36P九色 | 欧洲av网| www.xxxx国产| 亚洲国产精品久久久久4婷婷 | 欧美网站一区二区 | 精品国产一卡2卡3卡4卡新区 | 国产精品高清一区二区不卡片 | 日韩性视频 | 老头把我添高潮了A片故视频 | 亚洲国产一区二区三区亚瑟 | 久久一日本道色综合久久 | 欧美大片一区二区三区 | 欧美日影院 | 色玖玖综合 | 中文字幕在线免费看 | 欧美激情综合色综合啪啪五月 | 十次啦综合中文亚洲 | 99九九99九九九99九他书对 | 91探花福利精品国产自产在线 | 亚洲一区二区三区四区的 | 日本高清WWW无色夜在线视频 | 国产精品麻豆视频 | 尤物AV无码国产在线观看 | 亚洲日韩中文在线精品第一 | 国产视频中文字幕在线观看 | 精品亚洲在线 | 成年人黄色片免费看 | 九一视频在线观看免费 | 日本高清视频一区二区 | 午夜免费视频 | 2020久久香蕉国产线看观看 | 粉嫩大学生无套内射无码卡视频 | 一国产一级淫片a免费播放口 |