哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用 Python 實(shí)現(xiàn)一個(gè)大數(shù)據(jù)搜索引擎

馬哥Linux運(yùn)維 ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-06 17:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

搜索是大數(shù)據(jù)領(lǐng)域里常見的需求。Splunk和ELK分別是該領(lǐng)域在非開源和開源領(lǐng)域里的領(lǐng)導(dǎo)者。本文利用很少的Python代碼實(shí)現(xiàn)了一個(gè)基本的數(shù)據(jù)搜索功能,試圖讓大家理解大數(shù)據(jù)搜索的基本原理。

布隆過濾器 (Bloom Filter)

第一步我們先要實(shí)現(xiàn)一個(gè)布隆過濾器。

布隆過濾器是大數(shù)據(jù)領(lǐng)域的一個(gè)常見算法,它的目的是過濾掉那些不是目標(biāo)的元素。也就是說如果一個(gè)要搜索的詞并不存在與我的數(shù)據(jù)中,那么它可以以很快的速度返回目標(biāo)不存在。

讓我們看看以下布隆過濾器的代碼:

classBloomfilter(object):

A Bloom filter is a probabilistic data-structure that trades space for accuracy

when determining if a value is in a set.It can tell you if a value was possibly

added, or if it was definitely not added, but it can't tell you for certain that

it was added.

"""

def __init__(self,size):

"""Setup the BF with the appropriate size"""

self.values = [False] * size

self.size = size

def hash_value(self,value):

"""Hash the value provided and scale it to fit the BF size"""

returnhash(value) % self.size

def add_value(self,value):

"""Add a value to the BF"""

h = self.hash_value(value)

self.values[h] = True

def might_contain(self,value):

"""Check if the value might be in the BF"""

h = self.hash_value(value)

returnself.values[h]

def print_contents(self):

"""Dump the contents of the BF for debugging purposes"""

print self.values

基本的數(shù)據(jù)結(jié)構(gòu)是個(gè)數(shù)組(實(shí)際上是個(gè)位圖,用1/0來記錄數(shù)據(jù)是否存在),初始化是沒有任何內(nèi)容,所以全部置False。實(shí)際的使用當(dāng)中,該數(shù)組的長(zhǎng)度是非常大的,以保證效率。

利用哈希算法來決定數(shù)據(jù)應(yīng)該存在哪一位,也就是數(shù)組的索引

當(dāng)一個(gè)數(shù)據(jù)被加入到布隆過濾器的時(shí)候,計(jì)算它的哈希值然后把相應(yīng)的位置為True

當(dāng)檢查一個(gè)數(shù)據(jù)是否已經(jīng)存在或者說被索引過的時(shí)候,只要檢查對(duì)應(yīng)的哈希值所在的位的True/Fasle

看到這里,大家應(yīng)該可以看出,如果布隆過濾器返回False,那么數(shù)據(jù)一定是沒有索引過的,然而如果返回True,那也不能說數(shù)據(jù)一定就已經(jīng)被索引過。在搜索過程中使用布隆過濾器可以使得很多沒有命中的搜索提前返回來提高效率。

我們看看這段 code是如何運(yùn)行的:

bf = Bloomfilter(10)

bf.add_value('dog')

bf.add_value('fish')

bf.add_value('cat')

bf.print_contents()

bf.add_value('bird')

bf.print_contents()

# Note: contents are unchanged after adding bird - it collides

forterm in['dog','fish','cat','bird','duck','emu']:

print'{}: {} {}'.format(term,bf.hash_value(term),bf.might_contain(term))

結(jié)果:

[False,False,False,False,True,True,False,False,False,True]

[False,False,False,False,True,True,False,False,False,True]

dog: 5True

fish: 4True

cat: 9True

bird: 9True

duck: 5True

emu: 8False

首先創(chuàng)建了一個(gè)容量為10的的布隆過濾器

然后分別加入 ‘dog’,‘fish’,‘cat’三個(gè)對(duì)象,這時(shí)的布隆過濾器的內(nèi)容如下:

然后加入‘bird’對(duì)象,布隆過濾器的內(nèi)容并沒有改變,因?yàn)椤産ird’和‘fish’恰好擁有相同的哈希。

最后我們檢查一堆對(duì)象(’dog’, ‘fish’, ‘cat’, ‘bird’, ‘duck’, ’emu’)是不是已經(jīng)被索引了。結(jié)果發(fā)現(xiàn)‘duck’返回True,2而‘emu’返回False。因?yàn)椤甦uck’的哈希恰好和‘dog’是一樣的。

分詞

下面一步我們要實(shí)現(xiàn)分詞。 分詞的目的是要把我們的文本數(shù)據(jù)分割成可搜索的最小單元,也就是詞。這里我們主要針對(duì)英語,因?yàn)橹形牡姆衷~涉及到自然語言處理,比較復(fù)雜,而英文基本只要用標(biāo)點(diǎn)符號(hào)就好了。

下面我們看看分詞的代碼:

def major_segments(s):

"""

Perform major segmenting on a string.Split the string by all of the major

breaks, and return the set of everything found.The breaks in this implementation

are single characters, but in Splunk proper they can be multiple characters.

A set is used because ordering doesn't matter, and duplicates are bad.

"""

major_breaks = ' '

last = -1

results = set()

# enumerate() will give us (0, s[0]), (1, s[1]), ...

foridx,ch inenumerate(s):

ifch inmajor_breaks:

segment = s[last+1:idx]

results.add(segment)

last = idx

# The last character may not be a break so always capture

# the last segment (which may end up being "", but yolo)

segment = s[last+1:]

results.add(segment)

returnresults

主要分割

主要分割使用空格來分詞,實(shí)際的分詞邏輯中,還會(huì)有其它的分隔符。例如Splunk的缺省分割符包括以下這些,用戶也可以定義自己的分割符。

] < >( ) { } | ! ; , ‘ ” * s & ? + %21 %26 %2526 %3B %7C %20 %2B %3D — %2520 %5D %5B %3A %0A %2C %28 %29

def minor_segments(s):

"""

Perform minor segmenting on a string.This is like major

segmenting, except it also captures from the start of the

input to each break.

"""

minor_breaks = '_.'

last = -1

results = set()

foridx,ch inenumerate(s):

ifch inminor_breaks:

segment = s[last+1:idx]

results.add(segment)

segment = s[:idx]

results.add(segment)

last = idx

segment = s[last+1:]

results.add(segment)

results.add(s)

returnresults

次要分割

次要分割和主要分割的邏輯類似,只是還會(huì)把從開始部分到當(dāng)前分割的結(jié)果加入。例如“1.2.3.4”的次要分割會(huì)有1,2,3,4,1.2,1.2.3

def segments(event):

"""Simple wrapper around major_segments / minor_segments"""

results = set()

formajor inmajor_segments(event):

forminor inminor_segments(major):

results.add(minor)

returnresults

分詞的邏輯就是對(duì)文本先進(jìn)行主要分割,對(duì)每一個(gè)主要分割在進(jìn)行次要分割。然后把所有分出來的詞返回。

我們看看這段 code是如何運(yùn)行的:

forterm insegments('src_ip = 1.2.3.4'):

print term

src

1.2

1.2.3.4

src_ip

3

1

1.2.3

ip

2

=

4

搜索

好了,有個(gè)分詞和布隆過濾器這兩個(gè)利器的支撐后,我們就可以來實(shí)現(xiàn)搜索的功能了。

上代碼:

classSplunk(object):

def __init__(self):

self.bf = Bloomfilter(64)

self.terms = {}# Dictionary of term to set of events

self.events = []

def add_event(self,event):

"""Adds an event to this object"""

# Generate a unique ID for the event, and save it

event_id = len(self.events)

self.events.append(event)

# Add each term to the bloomfilter, and track the event by each term

forterm insegments(event):

self.bf.add_value(term)

ifterm notinself.terms:

self.terms[term] = set()

self.terms[term].add(event_id)

def search(self,term):

"""Search for a single term, and yield all the events that contain it"""

# In Splunk this runs in O(1), and is likely to be in filesystem cache (memory)

ifnotself.bf.might_contain(term):

return

# In Splunk this probably runs in O(log N) where N is the number of terms in the tsidx

ifterm notinself.terms:

return

forevent_id insorted(self.terms[term]):

yield self.events[event_id]

Splunk代表一個(gè)擁有搜索功能的索引集合

每一個(gè)集合中包含一個(gè)布隆過濾器,一個(gè)倒排詞表(字典),和一個(gè)存儲(chǔ)所有事件的數(shù)組

當(dāng)一個(gè)事件被加入到索引的時(shí)候,會(huì)做以下的邏輯

為每一個(gè)事件生成一個(gè)unqie id,這里就是序號(hào)

對(duì)事件進(jìn)行分詞,把每一個(gè)詞加入到倒排詞表,也就是每一個(gè)詞對(duì)應(yīng)的事件的id的映射結(jié)構(gòu),注意,一個(gè)詞可能對(duì)應(yīng)多個(gè)事件,所以倒排表的的值是一個(gè)Set。倒排表是絕大部分搜索引擎的核心功能。

當(dāng)一個(gè)詞被搜索的時(shí)候,會(huì)做以下的邏輯

檢查布隆過濾器,如果為假,直接返回

檢查詞表,如果被搜索單詞不在詞表中,直接返回

在倒排表中找到所有對(duì)應(yīng)的事件id,然后返回事件的內(nèi)容

我們運(yùn)行下看看把:

s = Splunk()

s.add_event('src_ip = 1.2.3.4')

s.add_event('src_ip = 5.6.7.8')

s.add_event('dst_ip = 1.2.3.4')

forevent ins.search('1.2.3.4'):

print event

print'-'

forevent ins.search('src_ip'):

print event

print'-'

forevent ins.search('ip'):

print event

src_ip = 1.2.3.4

dst_ip = 1.2.3.4

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

dst_ip = 1.2.3.4

是不是很贊!

更復(fù)雜的搜索

更進(jìn)一步,在搜索過程中,我們想用And和Or來實(shí)現(xiàn)更復(fù)雜的搜索邏輯。

上代碼:

classSplunkM(object):

def __init__(self):

self.bf = Bloomfilter(64)

self.terms = {}# Dictionary of term to set of events

self.events = []

def add_event(self,event):

"""Adds an event to this object"""

# Generate a unique ID for the event, and save it

event_id = len(self.events)

self.events.append(event)

# Add each term to the bloomfilter, and track the event by each term

forterm insegments(event):

self.bf.add_value(term)

ifterm notinself.terms:

self.terms[term] = set()

self.terms[term].add(event_id)

def search_all(self,terms):

"""Search for an AND of all terms"""

# Start with the universe of all events...

results = set(range(len(self.events)))

forterm interms:

# If a term isn't present at all then we can stop looking

ifnotself.bf.might_contain(term):

return

ifterm notinself.terms:

return

# Drop events that don't match from our results

results = results.intersection(self.terms[term])

forevent_id insorted(results):

yield self.events[event_id]

def search_any(self,terms):

"""Search for an OR of all terms"""

results = set()

forterm interms:

# If a term isn't present, we skip it, but don't stop

ifnotself.bf.might_contain(term):

continue

ifterm notinself.terms:

continue

# Add these events to our results

results = results.union(self.terms[term])

forevent_id insorted(results):

yield self.events[event_id]

利用Python集合的intersection和union操作,可以很方便的支持And(求交集)和Or(求合集)的操作。

運(yùn)行結(jié)果如下:

s = SplunkM()

s.add_event('src_ip = 1.2.3.4')

s.add_event('src_ip = 5.6.7.8')

s.add_event('dst_ip = 1.2.3.4')

forevent ins.search_all(['src_ip','5.6']):

print event

print'-'

forevent ins.search_any(['src_ip','dst_ip']):

print event

src_ip = 5.6.7.8

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

dst_ip = 1.2.3.4

總結(jié)

以上的代碼只是為了說明大數(shù)據(jù)搜索的基本原理,包括布隆過濾器,分詞和倒排表。如果大家真的想要利用這代碼來實(shí)現(xiàn)真正的搜索功能,還差的太遠(yuǎn)。所有的內(nèi)容來自于Splunk Conf2017。大家如果有興趣可以去看網(wǎng)上的視頻。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • python
    +關(guān)注

    關(guān)注

    58

    文章

    4885

    瀏覽量

    90307

原文標(biāo)題:用 Python 實(shí)現(xiàn)一個(gè)大數(shù)據(jù)搜索引擎

文章出處:【微信號(hào):magedu-Linux,微信公眾號(hào):馬哥Linux運(yùn)維】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【誠邀體驗(yàn)】 安利個(gè)AI使用工具!

    我們近年來,AI技術(shù)正在迅速改變工程師獲取知識(shí)和進(jìn)行開發(fā)的方式,從最早的搜索引擎到簡(jiǎn)單生成,再到如今能夠理解問題并生成代碼的AI工具。AI的進(jìn)化正在悄無聲息的改變工程師工作的環(huán)境。目前主流的AI工具
    的頭像 發(fā)表于 04-10 18:25 ?106次閱讀
    【誠邀體驗(yàn)】 安利<b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>AI使用工具!

    OpenAI要求谷歌將ChatGPT列為默認(rèn)搜索引擎

    行業(yè)芯事行業(yè)資訊
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2026年03月24日 13:37:11

    Oracle和NVIDIA合作加速向量搜索和企業(yè)數(shù)據(jù)處理

    旨在支持 NVIDIA GPU 和 NVIDIA cuVS 開源庫,用于向量搜索索引生成。本公告基于在 Oracle AI World 2025 大會(huì)上推出的 Oracle AI Database 26ai 和 Oracle Private AI Services Co
    的頭像 發(fā)表于 03-23 15:26 ?427次閱讀

    KIOXIA單服務(wù)器實(shí)現(xiàn)48億高維向量搜索數(shù)據(jù)庫,借助GPU實(shí)現(xiàn)索引構(gòu)建時(shí)間加速7.8倍

    Kioxia Corporation今日宣布,憑借其開源的KIOXIA AiSAQ?近似最近鄰搜索(ANNS)技術(shù),成功演示在單臺(tái)服務(wù)器上實(shí)現(xiàn)48億向量的高維向量搜索擴(kuò)展。此外,Kioxia還展示了
    的頭像 發(fā)表于 03-18 16:57 ?1059次閱讀

    API數(shù)據(jù)分析:淘寶流量來源分析,渠道優(yōu)化!

    優(yōu)化渠道策略。我們將使用Python作為工具,結(jié)合數(shù)據(jù)分析和統(tǒng)計(jì)方法,確保過程真實(shí)可靠。 1. 理解淘寶流量來源 淘寶流量主要來自多個(gè)渠道,包括: 直接訪問 :用戶直接輸入淘寶網(wǎng)址或從收藏夾訪問。 搜索引擎 :如百度或淘寶內(nèi)
    的頭像 發(fā)表于 01-23 13:42 ?390次閱讀
    API<b class='flag-5'>數(shù)據(jù)</b>分析:淘寶流量來源分析,渠道優(yōu)化!

    邁富時(shí)GEO服務(wù):技術(shù)驅(qū)動(dòng)AI搜索時(shí)代的企業(yè)增長(zhǎng)新引擎

    導(dǎo)語: 隨著DeepSeek、豆包、文心言等生成式AI搜索引擎的快速普及,用戶獲取信息的方式正從傳統(tǒng)"鏈接點(diǎn)擊"轉(zhuǎn)向"AI直接對(duì)話"。在這場(chǎng)深刻的信息檢索范式變革中,企業(yè)如何讓品牌內(nèi)容被AI系統(tǒng)
    的頭像 發(fā)表于 01-17 21:20 ?460次閱讀

    京東關(guān)鍵詞搜索商品列表的Python爬蟲實(shí)戰(zhàn)

    京東關(guān)鍵詞搜索商品列表 Python 爬蟲實(shí)戰(zhàn) 你想要實(shí)現(xiàn)京東關(guān)鍵詞搜索商品的爬蟲,我會(huì)從 合規(guī)聲明、環(huán)境準(zhǔn)備、頁面分析、代碼實(shí)現(xiàn)、反爬優(yōu)化
    的頭像 發(fā)表于 01-04 10:16 ?1270次閱讀

    labview如何實(shí)現(xiàn)數(shù)據(jù)的采集與實(shí)時(shí)預(yù)測(cè)

    現(xiàn)有以下問題:labview可以實(shí)現(xiàn)數(shù)據(jù)的采集以及調(diào)用python代碼,但如何將這兩項(xiàng)功能集成在個(gè)VI文件里,從而
    發(fā)表于 12-03 21:13

    工業(yè)UPS不間斷電源價(jià)格解析:優(yōu)比施電源為您拆解成本與價(jià)值

    搜索引擎上,“工業(yè)UPS不間斷電源價(jià)格”是成千上萬企業(yè)采購人員和技術(shù)負(fù)責(zé)人高頻搜索的關(guān)鍵詞。然而,當(dāng)您點(diǎn)開眾多頁面,卻很少能看到個(gè)明確的數(shù)字。這并非廠家故弄玄虛,而是因?yàn)楣I(yè)級(jí)UP
    的頭像 發(fā)表于 12-03 08:37 ?708次閱讀
    工業(yè)UPS不間斷電源價(jià)格解析:優(yōu)比施電源為您拆解成本與價(jià)值

    5分鐘了解SEO優(yōu)化服務(wù)器對(duì)網(wǎng)站加載速度的影響

    個(gè)為SEO優(yōu)化過的服務(wù)器,能顯著提升網(wǎng)站性能,從而在搜索引擎排名中占據(jù)有利位置。
    的頭像 發(fā)表于 12-02 10:27 ?448次閱讀

    根據(jù)標(biāo)題獲取商品鏈接評(píng)論接口的技術(shù)實(shí)現(xiàn)

    [調(diào)用評(píng)論API] F --?> G[數(shù)據(jù)清洗存儲(chǔ)] ? 關(guān)鍵組件說明: 搜索引擎接口 :通過電商平臺(tái)開放API實(shí)現(xiàn)標(biāo)題搜索 $$ text{API}_{search} = text{
    的頭像 發(fā)表于 10-20 16:03 ?807次閱讀
    根據(jù)標(biāo)題獲取商品鏈接評(píng)論接口的技術(shù)<b class='flag-5'>實(shí)現(xiàn)</b>

    搜索關(guān)鍵詞獲取商品詳情接口的設(shè)計(jì)與實(shí)現(xiàn)

    ? ??在電商、內(nèi)容平臺(tái)等應(yīng)用中,用戶經(jīng)常通過輸入關(guān)鍵詞搜索商品并獲取詳情。設(shè)計(jì)個(gè)高效、可靠的API接口是核心需求。本文將逐步介紹如何設(shè)計(jì)并實(shí)現(xiàn)
    的頭像 發(fā)表于 10-20 15:37 ?631次閱讀
    <b class='flag-5'>搜索</b>關(guān)鍵詞獲取商品詳情接口的設(shè)計(jì)與<b class='flag-5'>實(shí)現(xiàn)</b>

    5個(gè)關(guān)鍵技巧讓你的超聲波清洗設(shè)備更高效

    。因此,了解如何提高超聲波清洗設(shè)備的效率至關(guān)重要。本文將分享五個(gè)關(guān)鍵技巧,幫助您實(shí)現(xiàn)最佳清洗效果,提升清潔效率,同時(shí)也吸引搜索引擎的關(guān)注。1.選擇合適的清洗液清洗
    的頭像 發(fā)表于 08-20 16:29 ?782次閱讀
    5<b class='flag-5'>個(gè)</b>關(guān)鍵技巧讓你的超聲波清洗設(shè)備更高效

    拼多多 API 實(shí)現(xiàn)拼多多店鋪商品搜索權(quán)重提升

    將分步講解如何利用 API 實(shí)現(xiàn)目標(biāo),確保內(nèi)容真實(shí)可靠。 1. 理解搜索權(quán)重及其重要性 搜索權(quán)重是平臺(tái)算法對(duì)商品排名的綜合評(píng)分,基于多個(gè)因素計(jì)算。例如: 關(guān)鍵詞相關(guān)性:商品標(biāo)題和描
    的頭像 發(fā)表于 08-19 17:23 ?1048次閱讀
    <b class='flag-5'>用</b>拼多多 API <b class='flag-5'>實(shí)現(xiàn)</b>拼多多店鋪商品<b class='flag-5'>搜索</b>權(quán)重提升

    地平線余凱談AI時(shí)代產(chǎn)品方法論

    互聯(lián)網(wǎng)時(shí)代,商業(yè)邏輯始終圍繞“連接”與“理解人”展開。從搜索引擎、社交平臺(tái)再到短視頻應(yīng)用,都在通過用戶行為數(shù)據(jù)揣摩人類偏好,優(yōu)化服務(wù)體驗(yàn)。
    的頭像 發(fā)表于 06-03 11:44 ?1063次閱讀
    山阴县| 荥经县| 普兰县| 深水埗区| 高邑县| 深水埗区| 贡觉县| 浦县| 安庆市| 五常市| 阜新| 雅安市| 桑植县| 霞浦县| 晋城| 灵台县| 文昌市| 建湖县| 奎屯市| 栾川县| 乌拉特中旗| 松阳县| 玛纳斯县| 长寿区| 新民市| 昆明市| 彰武县| 黔西县| 伊金霍洛旗| 临西县| 沾化县| 澎湖县| 高邮市| 永福县| 呼图壁县| 进贤县| 资中县| 疏勒县| 大安市| 罗山县| 富宁县|