0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用 Python 實(shí)現(xiàn)一個(gè)大數(shù)據(jù)搜索引擎

馬哥Linux運(yùn)維 ? 來(lái)源:未知 ? 作者:鄧佳佳 ? 2018-03-06 17:26 ? 次閱讀

前言

搜索是大數(shù)據(jù)領(lǐng)域里常見(jiàn)的需求。Splunk和ELK分別是該領(lǐng)域在非開(kāi)源和開(kāi)源領(lǐng)域里的領(lǐng)導(dǎo)者。本文利用很少的Python代碼實(shí)現(xiàn)了一個(gè)基本的數(shù)據(jù)搜索功能,試圖讓大家理解大數(shù)據(jù)搜索的基本原理。

布隆過(guò)濾器 (Bloom Filter)

第一步我們先要實(shí)現(xiàn)一個(gè)布隆過(guò)濾器。

布隆過(guò)濾器是大數(shù)據(jù)領(lǐng)域的一個(gè)常見(jiàn)算法,它的目的是過(guò)濾掉那些不是目標(biāo)的元素。也就是說(shuō)如果一個(gè)要搜索的詞并不存在與我的數(shù)據(jù)中,那么它可以以很快的速度返回目標(biāo)不存在。

讓我們看看以下布隆過(guò)濾器的代碼:

classBloomfilter(object):

A Bloom filter is a probabilistic data-structure that trades space for accuracy

when determining if a value is in a set.It can tell you if a value was possibly

added, or if it was definitely not added, but it can't tell you for certain that

it was added.

"""

def __init__(self,size):

"""Setup the BF with the appropriate size"""

self.values = [False] * size

self.size = size

def hash_value(self,value):

"""Hash the value provided and scale it to fit the BF size"""

returnhash(value) % self.size

def add_value(self,value):

"""Add a value to the BF"""

h = self.hash_value(value)

self.values[h] = True

def might_contain(self,value):

"""Check if the value might be in the BF"""

h = self.hash_value(value)

returnself.values[h]

def print_contents(self):

"""Dump the contents of the BF for debugging purposes"""

print self.values

基本的數(shù)據(jù)結(jié)構(gòu)是個(gè)數(shù)組(實(shí)際上是個(gè)位圖,用1/0來(lái)記錄數(shù)據(jù)是否存在),初始化是沒(méi)有任何內(nèi)容,所以全部置False。實(shí)際的使用當(dāng)中,該數(shù)組的長(zhǎng)度是非常大的,以保證效率。

利用哈希算法來(lái)決定數(shù)據(jù)應(yīng)該存在哪一位,也就是數(shù)組的索引

當(dāng)一個(gè)數(shù)據(jù)被加入到布隆過(guò)濾器的時(shí)候,計(jì)算它的哈希值然后把相應(yīng)的位置為T(mén)rue

當(dāng)檢查一個(gè)數(shù)據(jù)是否已經(jīng)存在或者說(shuō)被索引過(guò)的時(shí)候,只要檢查對(duì)應(yīng)的哈希值所在的位的True/Fasle

看到這里,大家應(yīng)該可以看出,如果布隆過(guò)濾器返回False,那么數(shù)據(jù)一定是沒(méi)有索引過(guò)的,然而如果返回True,那也不能說(shuō)數(shù)據(jù)一定就已經(jīng)被索引過(guò)。在搜索過(guò)程中使用布隆過(guò)濾器可以使得很多沒(méi)有命中的搜索提前返回來(lái)提高效率。

我們看看這段 code是如何運(yùn)行的:

bf = Bloomfilter(10)

bf.add_value('dog')

bf.add_value('fish')

bf.add_value('cat')

bf.print_contents()

bf.add_value('bird')

bf.print_contents()

# Note: contents are unchanged after adding bird - it collides

forterm in['dog','fish','cat','bird','duck','emu']:

print'{}: {} {}'.format(term,bf.hash_value(term),bf.might_contain(term))

結(jié)果:

[False,False,False,False,True,True,False,False,False,True]

[False,False,False,False,True,True,False,False,False,True]

dog: 5True

fish: 4True

cat: 9True

bird: 9True

duck: 5True

emu: 8False

首先創(chuàng)建了一個(gè)容量為10的的布隆過(guò)濾器

然后分別加入 ‘dog’,‘fish’,‘cat’三個(gè)對(duì)象,這時(shí)的布隆過(guò)濾器的內(nèi)容如下:

然后加入‘bird’對(duì)象,布隆過(guò)濾器的內(nèi)容并沒(méi)有改變,因?yàn)椤産ird’和‘fish’恰好擁有相同的哈希。

最后我們檢查一堆對(duì)象(’dog’, ‘fish’, ‘cat’, ‘bird’, ‘duck’, ’emu’)是不是已經(jīng)被索引了。結(jié)果發(fā)現(xiàn)‘duck’返回True,2而‘emu’返回False。因?yàn)椤甦uck’的哈希恰好和‘dog’是一樣的。

分詞

下面一步我們要實(shí)現(xiàn)分詞。 分詞的目的是要把我們的文本數(shù)據(jù)分割成可搜索的最小單元,也就是詞。這里我們主要針對(duì)英語(yǔ),因?yàn)橹形牡姆衷~涉及到自然語(yǔ)言處理,比較復(fù)雜,而英文基本只要用標(biāo)點(diǎn)符號(hào)就好了。

下面我們看看分詞的代碼:

def major_segments(s):

"""

Perform major segmenting on a string.Split the string by all of the major

breaks, and return the set of everything found.The breaks in this implementation

are single characters, but in Splunk proper they can be multiple characters.

A set is used because ordering doesn't matter, and duplicates are bad.

"""

major_breaks = ' '

last = -1

results = set()

# enumerate() will give us (0, s[0]), (1, s[1]), ...

foridx,ch inenumerate(s):

ifch inmajor_breaks:

segment = s[last+1:idx]

results.add(segment)

last = idx

# The last character may not be a break so always capture

# the last segment (which may end up being "", but yolo)

segment = s[last+1:]

results.add(segment)

returnresults

主要分割

主要分割使用空格來(lái)分詞,實(shí)際的分詞邏輯中,還會(huì)有其它的分隔符。例如Splunk的缺省分割符包括以下這些,用戶(hù)也可以定義自己的分割符。

] < >( ) { } | ! ; , ‘ ” * s & ? + %21 %26 %2526 %3B %7C %20 %2B %3D — %2520 %5D %5B %3A %0A %2C %28 %29

def minor_segments(s):

"""

Perform minor segmenting on a string.This is like major

segmenting, except it also captures from the start of the

input to each break.

"""

minor_breaks = '_.'

last = -1

results = set()

foridx,ch inenumerate(s):

ifch inminor_breaks:

segment = s[last+1:idx]

results.add(segment)

segment = s[:idx]

results.add(segment)

last = idx

segment = s[last+1:]

results.add(segment)

results.add(s)

returnresults

次要分割

次要分割和主要分割的邏輯類(lèi)似,只是還會(huì)把從開(kāi)始部分到當(dāng)前分割的結(jié)果加入。例如“1.2.3.4”的次要分割會(huì)有1,2,3,4,1.2,1.2.3

def segments(event):

"""Simple wrapper around major_segments / minor_segments"""

results = set()

formajor inmajor_segments(event):

forminor inminor_segments(major):

results.add(minor)

returnresults

分詞的邏輯就是對(duì)文本先進(jìn)行主要分割,對(duì)每一個(gè)主要分割在進(jìn)行次要分割。然后把所有分出來(lái)的詞返回。

我們看看這段 code是如何運(yùn)行的:

forterm insegments('src_ip = 1.2.3.4'):

print term

src

1.2

1.2.3.4

src_ip

3

1

1.2.3

ip

2

=

4

搜索

好了,有個(gè)分詞和布隆過(guò)濾器這兩個(gè)利器的支撐后,我們就可以來(lái)實(shí)現(xiàn)搜索的功能了。

上代碼:

classSplunk(object):

def __init__(self):

self.bf = Bloomfilter(64)

self.terms = {}# Dictionary of term to set of events

self.events = []

def add_event(self,event):

"""Adds an event to this object"""

# Generate a unique ID for the event, and save it

event_id = len(self.events)

self.events.append(event)

# Add each term to the bloomfilter, and track the event by each term

forterm insegments(event):

self.bf.add_value(term)

ifterm notinself.terms:

self.terms[term] = set()

self.terms[term].add(event_id)

def search(self,term):

"""Search for a single term, and yield all the events that contain it"""

# In Splunk this runs in O(1), and is likely to be in filesystem cache (memory)

ifnotself.bf.might_contain(term):

return

# In Splunk this probably runs in O(log N) where N is the number of terms in the tsidx

ifterm notinself.terms:

return

forevent_id insorted(self.terms[term]):

yield self.events[event_id]

Splunk代表一個(gè)擁有搜索功能的索引集合

每一個(gè)集合中包含一個(gè)布隆過(guò)濾器,一個(gè)倒排詞表(字典),和一個(gè)存儲(chǔ)所有事件的數(shù)組

當(dāng)一個(gè)事件被加入到索引的時(shí)候,會(huì)做以下的邏輯

為每一個(gè)事件生成一個(gè)unqie id,這里就是序號(hào)

對(duì)事件進(jìn)行分詞,把每一個(gè)詞加入到倒排詞表,也就是每一個(gè)詞對(duì)應(yīng)的事件的id的映射結(jié)構(gòu),注意,一個(gè)詞可能對(duì)應(yīng)多個(gè)事件,所以倒排表的的值是一個(gè)Set。倒排表是絕大部分搜索引擎的核心功能。

當(dāng)一個(gè)詞被搜索的時(shí)候,會(huì)做以下的邏輯

檢查布隆過(guò)濾器,如果為假,直接返回

檢查詞表,如果被搜索單詞不在詞表中,直接返回

在倒排表中找到所有對(duì)應(yīng)的事件id,然后返回事件的內(nèi)容

我們運(yùn)行下看看把:

s = Splunk()

s.add_event('src_ip = 1.2.3.4')

s.add_event('src_ip = 5.6.7.8')

s.add_event('dst_ip = 1.2.3.4')

forevent ins.search('1.2.3.4'):

print event

print'-'

forevent ins.search('src_ip'):

print event

print'-'

forevent ins.search('ip'):

print event

src_ip = 1.2.3.4

dst_ip = 1.2.3.4

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

dst_ip = 1.2.3.4

是不是很贊!

更復(fù)雜的搜索

更進(jìn)一步,在搜索過(guò)程中,我們想用And和Or來(lái)實(shí)現(xiàn)更復(fù)雜的搜索邏輯。

上代碼:

classSplunkM(object):

def __init__(self):

self.bf = Bloomfilter(64)

self.terms = {}# Dictionary of term to set of events

self.events = []

def add_event(self,event):

"""Adds an event to this object"""

# Generate a unique ID for the event, and save it

event_id = len(self.events)

self.events.append(event)

# Add each term to the bloomfilter, and track the event by each term

forterm insegments(event):

self.bf.add_value(term)

ifterm notinself.terms:

self.terms[term] = set()

self.terms[term].add(event_id)

def search_all(self,terms):

"""Search for an AND of all terms"""

# Start with the universe of all events...

results = set(range(len(self.events)))

forterm interms:

# If a term isn't present at all then we can stop looking

ifnotself.bf.might_contain(term):

return

ifterm notinself.terms:

return

# Drop events that don't match from our results

results = results.intersection(self.terms[term])

forevent_id insorted(results):

yield self.events[event_id]

def search_any(self,terms):

"""Search for an OR of all terms"""

results = set()

forterm interms:

# If a term isn't present, we skip it, but don't stop

ifnotself.bf.might_contain(term):

continue

ifterm notinself.terms:

continue

# Add these events to our results

results = results.union(self.terms[term])

forevent_id insorted(results):

yield self.events[event_id]

利用Python集合的intersection和union操作,可以很方便的支持And(求交集)和Or(求合集)的操作。

運(yùn)行結(jié)果如下:

s = SplunkM()

s.add_event('src_ip = 1.2.3.4')

s.add_event('src_ip = 5.6.7.8')

s.add_event('dst_ip = 1.2.3.4')

forevent ins.search_all(['src_ip','5.6']):

print event

print'-'

forevent ins.search_any(['src_ip','dst_ip']):

print event

src_ip = 5.6.7.8

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

dst_ip = 1.2.3.4

總結(jié)

以上的代碼只是為了說(shuō)明大數(shù)據(jù)搜索的基本原理,包括布隆過(guò)濾器,分詞和倒排表。如果大家真的想要利用這代碼來(lái)實(shí)現(xiàn)真正的搜索功能,還差的太遠(yuǎn)。所有的內(nèi)容來(lái)自于Splunk Conf2017。大家如果有興趣可以去看網(wǎng)上的視頻

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4797

    瀏覽量

    84690

原文標(biāo)題:用 Python 實(shí)現(xiàn)一個(gè)大數(shù)據(jù)搜索引擎

文章出處:【微信號(hào):magedu-Linux,微信公眾號(hào):馬哥Linux運(yùn)維】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    阿里國(guó)際推出全球首個(gè)B2B AI搜索引擎Accio

    近日,在歐洲科技峰會(huì)Web Summit上,阿里國(guó)際正式推出了全球首個(gè)B2B領(lǐng)域的AI搜索引擎——Accio。這創(chuàng)新產(chǎn)品面向全球商家開(kāi)放,標(biāo)志著阿里國(guó)際正式入局當(dāng)前備受矚目的AI Search賽道。
    的頭像 發(fā)表于 11-15 16:53 ?701次閱讀

    阿里國(guó)際推出B2B領(lǐng)域AI搜索引擎Accio

    近日,阿里國(guó)際宣布正式進(jìn)軍AI搜索領(lǐng)域,并面向全球商家推出了首個(gè)B2B領(lǐng)域的AI搜索引擎——Accio。這創(chuàng)新產(chǎn)品的推出,標(biāo)志著阿里國(guó)際在電子商務(wù)和人工智能技術(shù)結(jié)合方面邁出了重要
    的頭像 發(fā)表于 11-14 11:47 ?429次閱讀

    Meta開(kāi)發(fā)新搜索引擎,減少對(duì)谷歌和必應(yīng)的依賴(lài)

    近日,Meta正在積極進(jìn)軍人工智能領(lǐng)域,并試圖跟上OpenAI的發(fā)展步伐。為實(shí)現(xiàn)目標(biāo),Meta正在開(kāi)發(fā)款全新的搜索引擎,該搜索引擎具備
    的頭像 發(fā)表于 10-29 11:49 ?385次閱讀

    月訪問(wèn)量超2億,增速113%!360AI搜索成為全球增速最快的AI搜索引擎

    與傳統(tǒng)搜索引擎不同,作為AI原生搜索引擎的360AI搜索基于公開(kāi)網(wǎng)絡(luò)、知識(shí)庫(kù)、大模型三大支柱。借助首創(chuàng)的 CoE 技術(shù)架構(gòu),360AI搜索整合了國(guó)內(nèi)主流的16家廠商51款大模型,支持用
    的頭像 發(fā)表于 09-09 13:44 ?478次閱讀
    月訪問(wèn)量超2億,增速113%!360AI<b class='flag-5'>搜索</b>成為全球增速最快的AI<b class='flag-5'>搜索引擎</b>

    OpenAI推出SearchGPT原型,正式向Google搜索引擎發(fā)起挑戰(zhàn)

    在人工智能領(lǐng)域的持續(xù)探索中,OpenAI 邁出了重大步,發(fā)布了其最新的 SearchGPT 原型,直接瞄準(zhǔn)了 Google 的核心業(yè)務(wù)——搜索引擎。這舉動(dòng)不僅標(biāo)志著 OpenAI 在技術(shù)上的又
    的頭像 發(fā)表于 07-26 15:11 ?580次閱讀

    微軟計(jì)劃在搜索引擎Bing中引入AI摘要功能

    近期,科技界傳來(lái)新動(dòng)向,微軟緊隨百度與谷歌的步伐,宣布計(jì)劃在其搜索引擎Bing中引入先進(jìn)的AI摘要功能,旨在為用戶(hù)帶來(lái)更加智能、豐富的搜索體驗(yàn)。
    的頭像 發(fā)表于 07-26 14:23 ?469次閱讀

    OpenAI否認(rèn)將推出搜索產(chǎn)品或GPT-5

    此消息對(duì)致力于將ChatGPT嵌入必應(yīng)搜索引擎的微軟或許有所積極影響。早期已有報(bào)導(dǎo)披露,該AI企業(yè)有意研發(fā)競(jìng)品以抗衡谷歌搜索引擎
    的頭像 發(fā)表于 05-13 15:14 ?388次閱讀

    OpenAI注冊(cè)新域名,準(zhǔn)備推出結(jié)合AI技術(shù)的搜索引擎挑戰(zhàn)谷歌

    OpenAI最近注冊(cè)了“search.chatgpt.com”域名,看起來(lái)是要推出款新的搜索引擎
    的頭像 發(fā)表于 05-08 10:41 ?461次閱讀

    OpenAI或?qū)⑼瞥鯟hatGPT搜索引擎

    據(jù)可靠消息透露,OpenAI正秘密研發(fā)款以ChatGPT為基礎(chǔ)的大型產(chǎn)品,其核心功能將是款新型搜索引擎,旨在為用戶(hù)提供更便捷的上網(wǎng)體驗(yàn)。
    的頭像 發(fā)表于 05-08 10:19 ?505次閱讀

    OpenAI或?qū)⒃?月9日發(fā)布ChatGPT版搜索引擎

    OpenAI可能即將與谷歌展開(kāi)正面競(jìng)爭(zhēng),推出基于ChatGPT的搜索引擎。根據(jù)Reddit網(wǎng)友的最新爆料,OpenAI有望在5月9日公布其全新的搜索產(chǎn)品。據(jù)悉,與這新產(chǎn)品相對(duì)應(yīng)的搜索
    的頭像 發(fā)表于 05-07 09:28 ?630次閱讀

    潤(rùn)和軟件與新財(cái)富聯(lián)合發(fā)布金融AI對(duì)話(huà)式搜索引擎“金融搜搜”產(chǎn)品

    3月29日,新財(cái)富投顧嘉年華活動(dòng)中,江蘇潤(rùn)和軟件股份有限公司(以下簡(jiǎn)稱(chēng)“潤(rùn)和軟件”)與深圳市新財(cái)富數(shù)字科技有限責(zé)任公司(以下簡(jiǎn)稱(chēng)“新財(cái)富”)聯(lián)合發(fā)布了金融AI對(duì)話(huà)式搜索引擎——“金融搜搜”產(chǎn)品,助力金融投資場(chǎng)景智能化升級(jí)。
    的頭像 發(fā)表于 04-02 10:15 ?498次閱讀
    潤(rùn)和軟件與新財(cái)富聯(lián)合發(fā)布金融AI對(duì)話(huà)式<b class='flag-5'>搜索引擎</b>“金融搜<b class='flag-5'>一</b>搜”產(chǎn)品

    微軟向Windows 10/11推送更新,建議將Bing設(shè)為Chrome默認(rèn)搜索引擎

    微軟通過(guò)提示窗口表示,只要將Bing設(shè)為Chrome瀏覽器的默認(rèn)搜索引擎,即可免費(fèi)享用ChatGPT-4,且每天可與Bing人工智能進(jìn)行數(shù)百次的對(duì)話(huà)交流。
    的頭像 發(fā)表于 03-15 14:32 ?1356次閱讀

    Redis官方搜索引擎來(lái)了,性能炸裂!

    RediSearch 是個(gè) Redis 模塊,為 Redis 提供查詢(xún)、二級(jí)索引和全文搜索功能。
    的頭像 發(fā)表于 02-21 10:01 ?2365次閱讀
    Redis官方<b class='flag-5'>搜索引擎</b>來(lái)了,性能炸裂!

    生成式AI恐使搜索引擎衰退,預(yù)計(jì)2026年搜索量將下滑25%

    據(jù)市場(chǎng)分析機(jī)構(gòu)Gartner報(bào)道,生成式AI對(duì)傳統(tǒng)搜索引擎構(gòu)成重大威脅,預(yù)計(jì)至2026年搜索量將降低25%。為此,企業(yè)需調(diào)整營(yíng)銷(xiāo)策略。
    的頭像 發(fā)表于 02-20 10:04 ?707次閱讀

    谷歌搜索引擎優(yōu)化的各個(gè)方面和步驟

    或SEMrush等專(zhuān)業(yè)工具,來(lái)幫助你找到相關(guān)的關(guān)鍵字。注意關(guān)鍵字的搜索量和競(jìng)爭(zhēng)度,選擇適合你網(wǎng)站的關(guān)鍵字。 網(wǎng)站結(jié)構(gòu)和鏈接優(yōu)化 谷歌搜索引擎優(yōu)化的一個(gè)重要方面是網(wǎng)站結(jié)構(gòu)和鏈接優(yōu)化。
    的頭像 發(fā)表于 01-25 10:29 ?889次閱讀