0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PageRank算法所建立的模型

lviY_AI_shequ ? 來源:未知 ? 作者:李倩 ? 2018-09-12 16:17 ? 次閱讀

引言

PageRank是Sergey Brin與Larry Page于1998年在WWW7會議上提出來的,用來解決鏈接分析中網(wǎng)頁排名的問題。在衡量一個網(wǎng)頁的排名,直覺告訴我們:

當(dāng)一個網(wǎng)頁被更多網(wǎng)頁所鏈接時,其排名會越靠前;

排名高的網(wǎng)頁應(yīng)具有更大的表決權(quán),即當(dāng)一個網(wǎng)頁被排名高的網(wǎng)頁所鏈接時,其重要性也應(yīng)對應(yīng)提高。

對于這兩個直覺,PageRank算法所建立的模型非常簡單:一個網(wǎng)頁的排名等于所有鏈接到該網(wǎng)頁的網(wǎng)頁的加權(quán)排名之和:

表示i個網(wǎng)頁的PageRank值,用以衡量每一個網(wǎng)頁的排名;若排名越高,則其PageRank值越大。網(wǎng)頁之間的鏈接關(guān)系可以表示成一個有向圖,邊代表了網(wǎng)頁j鏈接到了網(wǎng)頁i;為網(wǎng)頁j的出度,也可看作網(wǎng)頁j的外鏈數(shù)( the number of out-links)。

假定為n維PageRank值向量,A為有向圖G所對應(yīng)的轉(zhuǎn)移矩陣,

n個等式(1)改寫為矩陣相乘:

但是,為了獲得某個網(wǎng)頁的排名,而需要知道其他網(wǎng)頁的排名,這不就等同于“是先有雞還是先有蛋”的問題了么?幸運的是,PageRank采用power iteration方法破解了這個問題怪圈。欲知詳情,請看下節(jié)分解。

求解

為了對上述及以下求解過程有個直觀的了解,我們先來看一個例子,網(wǎng)頁鏈接關(guān)系圖如下圖所示:

那么,矩陣A即為

所謂power iteration,是指先給定一個P的初始值,然后通過多輪迭代求解:

最后收斂于,即差別小于某個閾值。我們發(fā)現(xiàn)式子(2)為一個特征方程(characteristic equation),并且解P是當(dāng)特征值(eigenvalue)為1時的特征向量(eigenvector)。為了滿足(2)是有解的,則矩陣AA應(yīng)滿足如下三個性質(zhì):

stochastic matrix,則行至少存在一個非零值,即必須存在一個外鏈接(沒有外鏈接的網(wǎng)頁被稱為dangling pages);

不可約(irreducible),即矩陣A所對應(yīng)的有向圖G必須是強連通的,對于任意兩個節(jié)點u,v∈V,存在一個從u到v的路徑;

非周期性(aperiodic),即每個節(jié)點存在自回路。

顯然,一般情況下矩陣A這三個性質(zhì)均不滿足。為了滿足性質(zhì)stochastic matrix,可以把全為0的行替換為e/ne/n,其中e為單位向量;同時為了滿足性質(zhì)不可約、非周期,需要做平滑處理:

其中,d為 damping factor,常置為0與1之間的一個常數(shù);E為單位陣。那么,式子(1)被改寫為

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4697

    瀏覽量

    94684
  • PageRank
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    6732

原文標題:【十大經(jīng)典數(shù)據(jù)挖掘算法】PageRank

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評論

    相關(guān)推薦
    熱點推薦

    直流電機控制方法的Matlab仿真研究

    針對無刷直流電機的控制方法進行了深入研究 。根據(jù)無刷直流電機實際物理模型建立相應(yīng)的數(shù)學(xué)模型,電機使用雙閉環(huán)進行控制 。根據(jù)電機的實際工作特點,使用模糊自適應(yīng) PID 算法替代常規(guī) PI
    發(fā)表于 03-27 12:15

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】RAG基本概念

    工作,同時通過Prompt工程優(yōu)化輸入內(nèi)容,甚至實現(xiàn)多模型的協(xié)同推理,充分發(fā)揮不同模型的優(yōu)勢。結(jié)果優(yōu)化層,基于用戶反饋學(xué)習(xí)不斷改進輸出,通過可信度評估算法判斷結(jié)果的可靠性,實時知識蒸餾系統(tǒng)則進一步精煉
    發(fā)表于 02-08 00:22

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    重復(fù)項或使用編輯距離算法比較文本相似度。數(shù)據(jù)標注:高質(zhì)量的數(shù)據(jù)標注直接影響模型的性能。標注過程應(yīng)遵循明確標注規(guī)則、選擇合適的標注工具、進行多輪審核和質(zhì)量控制等原則。數(shù)據(jù)增強:提高模型泛化能力的有效方法
    發(fā)表于 01-14 16:51

    介紹FIR濾波模型建立,分4個步驟

    本帖介紹FIR濾波模型建立,分以下幾個步驟: 選定濾波結(jié)構(gòu):低通、高通、帶通、帶阻; 選定合適的窗函數(shù),常見的有hamming、hanning、blackman、ExactBlackman
    發(fā)表于 09-04 09:08

    請問如何建立XTR110KU的Spice模型?

    怎么建立XTR110KU的Spice模型
    發(fā)表于 09-02 06:11

    請問如何建立MOS或IGBT模型到TINA TI使用?

    請問如何建立MOS或IGBT模型到TINA TI使用
    發(fā)表于 08-14 06:21

    計算機視覺技術(shù)的AI算法模型

    計算機視覺技術(shù)作為人工智能領(lǐng)域的一個重要分支,旨在使計算機能夠像人類一樣理解和解釋圖像及視頻中的信息。為了實現(xiàn)這一目標,計算機視覺技術(shù)依賴于多種先進的AI算法模型。以下將詳細介紹幾種常見的計算機視覺
    的頭像 發(fā)表于 07-24 12:46 ?1547次閱讀

    科沃斯機器人大模型算法通過國家備案

    在智能科技日新月異的今天,科沃斯家用機器人有限公司再次站在了行業(yè)創(chuàng)新的前沿。近日,該公司自主研發(fā)的“科沃斯機器人大模型算法”成功通過國家網(wǎng)信辦的深度合成服務(wù)算法備案,這一里程碑式的成就不僅標志著科沃斯在技術(shù)創(chuàng)新上的卓越實力,更意
    的頭像 發(fā)表于 07-23 16:42 ?1017次閱讀

    AI算法/模型/框架/模型庫的含義、區(qū)別與聯(lián)系

    在人工智能(Artificial Intelligence,簡稱AI)的廣闊領(lǐng)域中,算法、模型、框架和模型庫是構(gòu)成其技術(shù)生態(tài)的重要基石。它們各自承擔(dān)著不同的角色,但又緊密相連,共同推動著AI技術(shù)的不斷發(fā)展。以下是對這四者含義、區(qū)
    的頭像 發(fā)表于 07-17 17:11 ?7434次閱讀

    ai大模型算法有什么區(qū)別

    AI大模型算法是人工智能領(lǐng)域的兩個重要概念,它們在很多方面有著密切的聯(lián)系,但同時也存在一些明顯的區(qū)別。 定義和概念 AI大模型通常是指具有大量參數(shù)和復(fù)雜結(jié)構(gòu)的人工智能模型,它們能夠處
    的頭像 發(fā)表于 07-16 10:09 ?3624次閱讀

    AI大模型與小模型的優(yōu)缺點

    在人工智能(AI)的廣闊領(lǐng)域中,模型作為算法與數(shù)據(jù)之間的橋梁,扮演著至關(guān)重要的角色。根據(jù)模型的大小和復(fù)雜度,我們可以將其大致分為AI大模型和小模型
    的頭像 發(fā)表于 07-10 10:39 ?6709次閱讀

    如何使用PyTorch建立網(wǎng)絡(luò)模型

    PyTorch是一個基于Python的開源機器學(xué)習(xí)庫,因其易用性、靈活性和強大的動態(tài)圖特性,在深度學(xué)習(xí)領(lǐng)域得到了廣泛應(yīng)用。本文將從PyTorch的基本概念、網(wǎng)絡(luò)模型構(gòu)建、優(yōu)化方法、實際應(yīng)用等多個方面,深入探討使用PyTorch建立網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-02 14:08 ?761次閱讀

    基于神經(jīng)網(wǎng)絡(luò)算法模型構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)是一種強大的機器學(xué)習(xí)算法,廣泛應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、語音識別等。本文詳細介紹了基于神經(jīng)網(wǎng)絡(luò)算法模型構(gòu)建方法,包括數(shù)據(jù)預(yù)處理、網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計、訓(xùn)練過程優(yōu)化、模型
    的頭像 發(fā)表于 07-02 11:21 ?926次閱讀

    建立神經(jīng)網(wǎng)絡(luò)模型的三個步驟

    建立神經(jīng)網(wǎng)絡(luò)模型是一個復(fù)雜的過程,涉及到多個步驟和細節(jié)。以下是對建立神經(jīng)網(wǎng)絡(luò)模型的三個主要步驟的介紹: 第一步:數(shù)據(jù)準備 1.1 數(shù)據(jù)收集 數(shù)據(jù)是神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)。首先,你需要收集足夠的
    的頭像 發(fā)表于 07-02 11:20 ?1666次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練一個深度學(xué)習(xí)模型,本質(zhì)上是通過優(yōu)化算法調(diào)整模型參數(shù),
    的頭像 發(fā)表于 07-01 16:13 ?2360次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品