0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Python網(wǎng)絡(luò)爬蟲(chóng)Selenium的簡(jiǎn)單使用

冬至子 ? 來(lái)源:宓海 ? 作者:宓海 ? 2023-11-14 14:44 ? 次閱讀

Python網(wǎng)絡(luò)爬蟲(chóng)-Selenium

想要學(xué)習(xí)爬蟲(chóng),如果比較詳細(xì)的了解web開(kāi)發(fā)的前端知識(shí)會(huì)更加容易上手,時(shí)間不夠充裕,僅僅了解html的相關(guān)知識(shí)也是夠用的。

準(zhǔn)備工作:

使用它肯定先要安裝它,對(duì)于Selenium的安裝推薦使用pip,十分方便。因?yàn)槲沂褂玫氖枪雀铻g覽器,使用前需要先配置相應(yīng)的ChromeDriver,在此放出對(duì)應(yīng)谷歌瀏覽器對(duì)應(yīng)的80版本的ChromeDriver。地址 :點(diǎn)擊下載提取碼:sz2s
至于如何去安裝配置,網(wǎng)絡(luò)上有很多教程,在此不做贅述。

簡(jiǎn)要功能:

使用Selenium可以驅(qū)動(dòng)瀏覽器執(zhí)行特定操作,如點(diǎn)擊,下拉等等,同時(shí)也能直接抓取網(wǎng)頁(yè)源代碼,即做到可見(jiàn)即可爬。

1.訪問(wèn)頁(yè)面

通過(guò)下面這幾行代碼可以實(shí)現(xiàn)瀏覽器的驅(qū)動(dòng)并獲取網(wǎng)頁(yè)源碼,非常便捷。

from selenium import webdriver

browser = webdriver.Chrome()  #聲明瀏覽器對(duì)象
browser.get('https://www.baidu.com')
print(browser.page_source)  #打印網(wǎng)頁(yè)源碼
browser.close()			#關(guān)閉瀏覽器

2.查找節(jié)點(diǎn)

selenium可以驅(qū)動(dòng)瀏覽器完成各種操作,但進(jìn)行模擬點(diǎn)擊,填寫(xiě)表單時(shí),我們總要知道這些輸入框,點(diǎn)擊按鈕在哪里,所以需要獲取相對(duì)的節(jié)點(diǎn)??偣灿衅渲袑ふ夜?jié)點(diǎn)的方法,在此給出一個(gè)非常全面的學(xué)習(xí)查找節(jié)點(diǎn)的教程。

=單個(gè)節(jié)點(diǎn)=
下面以百度首頁(yè)為例。通過(guò)查找源碼,我們可以發(fā)現(xiàn)對(duì)應(yīng)搜索文本框的class,name,id等屬性名。

圖片

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
input = browser.find_element_by_id('kw')		#獲取搜索框位置
input.send_keys('Python')    	#輸入內(nèi)容

運(yùn)行代碼得到如下內(nèi)容,此時(shí)我們只是輸入,并未進(jìn)行其他操作。

圖片

=多個(gè)節(jié)點(diǎn)=

如果查找目標(biāo)在網(wǎng)頁(yè)中只有一個(gè),使用find_element()方法就可了。如果有多個(gè),舉個(gè)例子,如查找多個(gè)滿足條件的節(jié)點(diǎn),通過(guò)html基本知識(shí)我們可以知道元素對(duì)應(yīng)的id名是唯一的,像是其他的class等可以多次出現(xiàn),其中對(duì)應(yīng)的滿足條件的倘若還用一開(kāi)始的方法便只能得到第一個(gè)節(jié)點(diǎn)的內(nèi)容,后面就不能得到,因此可以使用find_elements()。

3.節(jié)點(diǎn)交互

意思就是讓瀏覽器模擬執(zhí)行一些動(dòng)作,常用的有:輸入文字用send_keys(),清空文字用clear(),點(diǎn)擊用click()。放個(gè)小實(shí)例。

from selenium import webdriver
import time

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
input = browser.find_element_by_id('kw')
input.send_keys('Python')
time.sleep(1)		#等待時(shí)間設(shè)置為1秒,方便查看
input.clear()		#清空搜索框
input.send_keys('LOL')
button = browser.find_element_by_id('su')
button.click()		#模擬點(diǎn)擊

4.獲取節(jié)點(diǎn)信息

因?yàn)閟elenium的page_source屬性可以直接獲取網(wǎng)頁(yè)源碼,接著就可以直接使用解析庫(kù)(如正則表達(dá)式,Beautiful Soup等)直接提取信息,不過(guò)Selenium已經(jīng)直接提供了選擇節(jié)點(diǎn)的方法了,返回的是WebElement類型,它也有相關(guān)的方法提取節(jié)點(diǎn)信息,如文本,屬性等。這也是使用它進(jìn)行一點(diǎn)簡(jiǎn)單的爬蟲(chóng)非常方便的原因,代碼十分簡(jiǎn)潔。

=提取屬性=

使用get_attribute()方法,但前提需要先選中節(jié)點(diǎn),同樣以百度首頁(yè)為實(shí)例,打印出百度logo的屬性。

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
input = browser.find_element_by_id('s_lg_img')
print(input)
print(input.get_attribute("class"))

'''打印結(jié)果
< selenium.webdriver.remote.webelement.WebElement (session="6013549f22f653cf081e0564da8315da", element="a924de49-358c-42e1-8c29-09bf0dd8d3c3") >
index-logo-src
'''

=獲取文本值=

每個(gè)WebElement節(jié)點(diǎn)都有text屬性,直接調(diào)用這個(gè)屬性就可以獲得節(jié)點(diǎn)內(nèi)的內(nèi)容,這相當(dāng)于Beautiful Soup中的get_text()方法。這里打開(kāi)百度首頁(yè),獲取搜索按鈕的百度一下文本。

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
input = browser.find_element_by_id('su')
print(input.text)

=獲取id、位置、標(biāo)簽名和大小=

id屬性獲取節(jié)點(diǎn)id
location屬性可以獲取該節(jié)點(diǎn)在頁(yè)面中的相對(duì)位置
tag_name屬性獲取標(biāo)簽名稱
size屬性獲取節(jié)點(diǎn)大小,就是寬高

5.延時(shí)等待

當(dāng)我們進(jìn)行網(wǎng)絡(luò)爬蟲(chóng)時(shí),請(qǐng)求的東西或許不會(huì)第一時(shí)間出現(xiàn),此時(shí)就會(huì)拋出時(shí)間異常,因此我們需要加上延時(shí)等待避免程序中斷。這里面分為顯式等待和隱式等待,具體詳細(xì)教程參考鏈接: link.

6.異常處理

進(jìn)行爬蟲(chóng)難免會(huì)遇到異常,如超時(shí),節(jié)點(diǎn)未找到等錯(cuò)誤,此時(shí)用try except語(yǔ)句捕獲異常,可以避免程序因此中斷。

關(guān)于Selenium其他的函數(shù)如對(duì)網(wǎng)頁(yè)節(jié)點(diǎn)進(jìn)行拖拽,切換標(biāo)簽頁(yè),前進(jìn)與后退,選項(xiàng)卡管理以及對(duì)cookies相關(guān)的操作等不做詳細(xì)說(shuō)明,上面的知識(shí)足以進(jìn)行簡(jiǎn)單的爬蟲(chóng)了,像是各大網(wǎng)頁(yè)的文本值都可以很簡(jiǎn)單的抓取下來(lái),可以做一點(diǎn)簡(jiǎn)單的數(shù)據(jù)分析。當(dāng)然這僅對(duì)初學(xué)者是這樣的,后期稍微深入會(huì)遇到需要這些函數(shù)的操作,對(duì)于小白這些就夠了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4801

    瀏覽量

    84867
  • 異常中斷
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    1236
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    IP地址數(shù)據(jù)信息和爬蟲(chóng)攔截的關(guān)聯(lián)

    IP地址數(shù)據(jù)信息和爬蟲(chóng)攔截的關(guān)聯(lián)主要涉及到兩方面的內(nèi)容,也就是數(shù)據(jù)信息和爬蟲(chóng)。IP 地址數(shù)據(jù)信息的內(nèi)容豐富,包括所屬地域、所屬網(wǎng)絡(luò)運(yùn)營(yíng)商、訪問(wèn)時(shí)間序列、訪問(wèn)頻率等。 從IP地址信息中可以窺見(jiàn)
    的頭像 發(fā)表于 12-23 10:13 ?74次閱讀

    如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型

    構(gòu)建一個(gè)LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)模型是一個(gè)涉及多個(gè)步驟的過(guò)程。以下是使用Python和Keras庫(kù)構(gòu)建LSTM模型的指南。 1. 安裝必要的庫(kù) 首先,確保你已經(jīng)安裝了Python和以下庫(kù)
    的頭像 發(fā)表于 11-13 10:10 ?488次閱讀

    Python編程:處理網(wǎng)絡(luò)請(qǐng)求的代理技術(shù)

    網(wǎng)絡(luò)編程中,代理技術(shù)扮演著至關(guān)重要的角色,尤其在處理網(wǎng)絡(luò)請(qǐng)求時(shí)。通過(guò)代理服務(wù)器,我們可以實(shí)現(xiàn)請(qǐng)求的轉(zhuǎn)發(fā)、緩存、負(fù)載均衡以及安全控制等功能。Python作為一種功能強(qiáng)大的編程語(yǔ)言,為提供了豐富的工具和庫(kù),以便敏捷地實(shí)現(xiàn)和處理
    的頭像 發(fā)表于 11-12 07:23 ?209次閱讀

    全球視野下的海外爬蟲(chóng)IP:趨勢(shì)、機(jī)遇與風(fēng)險(xiǎn)

    在全球視野下,海外爬蟲(chóng)IP的使用呈現(xiàn)出一系列趨勢(shì),同時(shí)也伴隨著機(jī)遇與風(fēng)險(xiǎn)。
    的頭像 發(fā)表于 10-15 07:54 ?235次閱讀

    海外爬蟲(chóng)IP的合法邊界:合規(guī)性探討與實(shí)踐

    海外爬蟲(chóng)IP的合法邊界主要涉及合規(guī)性探討與實(shí)踐。
    的頭像 發(fā)表于 10-12 07:56 ?245次閱讀

    如何利用海外爬蟲(chóng)IP進(jìn)行數(shù)據(jù)抓取

    利用海外爬蟲(chóng)IP進(jìn)行數(shù)據(jù)抓取需要綜合考慮多個(gè)方面。
    的頭像 發(fā)表于 10-12 07:54 ?233次閱讀

    詳細(xì)解讀爬蟲(chóng)多開(kāi)代理IP的用途,以及如何配置!

    爬蟲(chóng)多開(kāi)代理IP是一種在爬蟲(chóng)開(kāi)發(fā)中常用的技術(shù)策略,主要用于提高數(shù)據(jù)采集效率、避免IP被封禁以及獲取地域特定的數(shù)據(jù)。
    的頭像 發(fā)表于 09-14 07:55 ?526次閱讀

    使用Python進(jìn)行Ping測(cè)試

    )請(qǐng)求包,然后等待目標(biāo)主機(jī)返回響應(yīng)包,從而測(cè)量網(wǎng)絡(luò)的延遲和丟包情況。隨著Python編程語(yǔ)言的廣泛應(yīng)用,越來(lái)越多的網(wǎng)絡(luò)工程師開(kāi)始使用Python進(jìn)行自動(dòng)化
    的頭像 發(fā)表于 08-12 17:56 ?565次閱讀
    使用<b class='flag-5'>Python</b>進(jìn)行Ping測(cè)試

    使用Python批量連接華為網(wǎng)絡(luò)設(shè)備

    隨著網(wǎng)絡(luò)規(guī)模的擴(kuò)大和設(shè)備數(shù)量的增加,手動(dòng)配置和管理每臺(tái)網(wǎng)絡(luò)設(shè)備變得越來(lái)越不現(xiàn)實(shí)。因此,自動(dòng)化工具和腳本變得尤為重要。Python語(yǔ)言以其簡(jiǎn)潔性和強(qiáng)大的第三方庫(kù)支持,成為了網(wǎng)絡(luò)自動(dòng)化領(lǐng)域
    的頭像 發(fā)表于 08-12 17:48 ?510次閱讀

    網(wǎng)絡(luò)爬蟲(chóng),Python和數(shù)據(jù)分析

    電子發(fā)燒友網(wǎng)站提供《網(wǎng)絡(luò)爬蟲(chóng),Python和數(shù)據(jù)分析.pdf》資料免費(fèi)下載
    發(fā)表于 07-13 09:27 ?2次下載

    用pycharm進(jìn)行python爬蟲(chóng)的步驟

    以下是使用PyCharm進(jìn)行Python爬蟲(chóng)的步驟: 安裝PyCharm和Python 首先,您需要安裝PyCharm和Python。PyCharm是一個(gè)流行的
    的頭像 發(fā)表于 07-11 10:11 ?907次閱讀

    tensorflow簡(jiǎn)單的模型訓(xùn)練

    TensorFlow開(kāi)始,然后介紹如何構(gòu)建和訓(xùn)練一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)模型。 1. 安裝TensorFlow 首先,我們需要安裝TensorFlow。TensorFlow支持多種編程語(yǔ)言,包括Python、C++
    的頭像 發(fā)表于 07-05 09:38 ?734次閱讀

    如何使用Python進(jìn)行神經(jīng)網(wǎng)絡(luò)編程

    。 為什么使用Python? Python是一種廣泛使用的高級(jí)編程語(yǔ)言,以其易讀性和易用性而聞名。Python擁有強(qiáng)大的庫(kù),如TensorFlow、Keras和PyTorch,這些庫(kù)提供了構(gòu)建和訓(xùn)練神經(jīng)
    的頭像 發(fā)表于 07-02 09:58 ?432次閱讀

    常見(jiàn)的數(shù)據(jù)采集工具的介紹

    Scraping) 網(wǎng)絡(luò)爬蟲(chóng)是一種自動(dòng)化的程序,用于從互聯(lián)網(wǎng)上提取信息。它們可以訪問(wèn)網(wǎng)頁(yè),解析HTML內(nèi)容,并從中提取所需的數(shù)據(jù)。 Scrapy : 一個(gè)快速且強(qiáng)大的Python框架,用于抓取網(wǎng)站數(shù)據(jù)。 Beautiful S
    的頭像 發(fā)表于 07-01 14:51 ?915次閱讀

    全球新聞網(wǎng)封鎖OpenAI和谷歌AI爬蟲(chóng)

    分析結(jié)果顯示,至2023年底,超半數(shù)(57%)的傳統(tǒng)印刷媒體如《紐約時(shí)報(bào)》等已關(guān)閉OpenAI爬蟲(chóng),反之電視廣播以及數(shù)字原生媒體相應(yīng)地分別為48%和31%。而對(duì)于谷歌人工智能爬蟲(chóng),32%的印刷媒體采取相同措施,電視廣播和數(shù)字原生媒體的比率分別為19%和17%。
    的頭像 發(fā)表于 02-27 15:31 ?883次閱讀