用 Python 實現一個大數據搜索引擎

分享一篇文章:用Python實現一個大數據搜索引擎。

搜索是大數據領域裡常見的需求。Splunk和ELK分別是該領域在非開源和開源領域裡的領導者。本文利用很少的Python代碼實現了一個基本的數據搜索功能,試圖讓大家理解大數據搜索的基本原理。

布隆過濾器 (Bloom Filter)

第一步我們先要實現一個布隆過濾器。

布隆過濾器是大數據領域的一個常見演算法,它的目的是過濾掉那些不是目標的元素。也就是說如果一個要搜索的詞並不存在與我的數據中,那麼它可以以很快的速度返回目標不存在。

讓我們看看以下布隆過濾器的代碼:

class Bloomfilter(object):n"""n A Bloom filter is a probabilistic data-structure that trades space for accuracyn when determining if a value is in a set. It can tell you if a value was possiblyn added, or if it was definitely not added, but it cant tell you for certain thatn it was added.n """ndef __init__(self, size):n"""Setup the BF with the appropriate size"""nself.values = [False] * sizenself.size = sizenn def hash_value(self, value):n"""Hash the value provided and scale it to fit the BF size"""nreturn hash(value) % self.sizenn def add_value(self, value):n"""Add a value to the BF"""nh = self.hash_value(value)nself.values[h] = Truenndef might_contain(self, value):n"""Check if the value might be in the BF"""nh = self.hash_value(value)nreturn self.values[h]nndef print_contents(self):n"""Dump the contents of the BF for debugging purposes"""nprint self.valuesn

  • 基本的數據結構是個數組(實際上是個點陣圖,用1/0來記錄數據是否存在),初始化是沒有任何內容,所以全部置False。實際的使用當中,該數組的長度是非常大的,以保證效率。
  • 利用哈希演算法來決定數據應該存在哪一位,也就是數組的索引
  • 當一個數據被加入到布隆過濾器的時候,計算它的哈希值然後把相應的位置為True
  • 當檢查一個數據是否已經存在或者說被索引過的時候,只要檢查對應的哈希值所在的位的True/Fasle

看到這裡,大家應該可以看出,如果布隆過濾器返回False,那麼數據一定是沒有索引過的,然而如果返回True,那也不能說數據一定就已經被索引過。在搜索過程中使用布隆過濾器可以使得很多沒有命中的搜索提前返回來提高效率。

我們看看這段 code是如何運行的:

bf = Bloomfilter(10)nbf.add_value(dog)nbf.add_value(fish)nbf.add_value(cat)nbf.print_contents()nbf.add_value(bird)nbf.print_contents()n# Note: contents are unchanged after adding bird - it collidesnfor term in [dog, fish, cat, bird, duck, emu]:nprint {}: {} {}.format(term, bf.hash_value(term), bf.might_contain(term))n

結果:

[False, False, False, False, True, True, False, False, False, True]n[False, False, False, False, True, True, False, False, False, True]ndog: 5 Truenfish: 4 Truencat: 9 Truenbird: 9 Truenduck: 5 Truenemu: 8 Falsen

首先創建了一個容量為10的的布隆過濾器

然後分別加入 『dog』,『fish』,『cat』三個對象,這時的布隆過濾器的內容如下:

然後加入『bird』對象,布隆過濾器的內容並沒有改變,因為『bird』和『fish』恰好擁有相同的哈希。

最後我們檢查一堆對象(』dog』, 『fish』, 『cat』, 『bird』, 『duck』, 』emu』)是不是已經被索引了。結果發現『duck』返回True,2而『emu』返回False。因為『duck』的哈希恰好和『dog』是一樣的。

分詞

下面一步我們要實現分詞。 分詞的目的是要把我們的文本數據分割成可搜索的最小單元,也就是詞。這裡我們主要針對英語,因為中文的分詞涉及到自然語言處理,比較複雜,而英文基本只要用標點符號就好了。

下面我們看看分詞的代碼:

def major_segments(s):n"""n Perform major segmenting on a string. Split the string by all of the majorn breaks, and return the set of everything found. The breaks in this implementationn are single characters, but in Splunk proper they can be multiple characters.n A set is used because ordering doesnt matter, and duplicates are bad.n """nmajor_breaks = nlast = -1nresults = set()nn# enumerate() will give us (0, s[0]), (1, s[1]), ...nfor idx, ch in enumerate(s):nif ch in major_breaks:nsegment = s[last+1:idx]nresults.add(segment)nnlast = idxnn# The last character may not be a break so always capturen# the last segment (which may end up being "", but yolo) nsegment = s[last+1:]nresults.add(segment)nnreturn resultsn

主要分割

主要分割使用空格來分詞,實際的分詞邏輯中,還會有其它的分隔符。例如Splunk的預設分割符包括以下這些,用戶也可以定義自己的分割符。

] < >( ) { } | ! ; , 『 」 * s & ? + %21 %26 %2526 %3B %7C %20 %2B %3D — %2520 %5D %5B %3A %0A %2C %28 %29

def minor_segments(s):n"""n Perform minor segmenting on a string. This is like majorn segmenting, except it also captures from the start of then input to each break.n """nminor_breaks = _.nlast = -1nresults = set()nnfor idx, ch in enumerate(s):nif ch in minor_breaks:nsegment = s[last+1:idx]nresults.add(segment)nnsegment = s[:idx]nresults.add(segment)nnlast = idxnnsegment = s[last+1:]nresults.add(segment)nresults.add(s)nnreturn resultsn

次要分割

次要分割和主要分割的邏輯類似,只是還會把從開始部分到當前分割的結果加入。例如「1.2.3.4」的次要分割會有1,2,3,4,1.2,1.2.3

def segments(event):n"""Simple wrapper around major_segments / minor_segments"""nresults = set()nfor major in major_segments(event):nfor minor in minor_segments(major):nresults.add(minor)nreturn resultsn

分詞的邏輯就是對文本先進行主要分割,對每一個主要分割在進行次要分割。然後把所有分出來的詞返回。

我們看看這段 code是如何運行的:

for term in segments(src_ip = 1.2.3.4):nprint termnnnsrcn1.2n1.2.3.4nsrc_ipn3n1n1.2.3nipn2n=n4n

搜索

好了,有個分詞和布隆過濾器這兩個利器的支撐後,我們就可以來實現搜索的功能了。

上代碼:

class Splunk(object):ndef __init__(self):nself.bf = Bloomfilter(64)nself.terms = {} # Dictionary of term to set of eventsnself.events = []nndef add_event(self, event):n"""Adds an event to this object"""nn# Generate a unique ID for the event, and save itnevent_id = len(self.events)nself.events.append(event)nn# Add each term to the bloomfilter, and track the event by each termnfor term in segments(event):nself.bf.add_value(term)nnif term not in self.terms:nself.terms[term] = set()nself.terms[term].add(event_id)nndef search(self, term):n"""Search for a single term, and yield all the events that contain it"""nn# In Splunk this runs in O(1), and is likely to be in filesystem cache (memory)nif not self.bf.might_contain(term):nreturnnn# In Splunk this probably runs in O(log N) where N is the number of terms in the tsidxnif term not in self.terms:nreturnnnfor event_id in sorted(self.terms[term]):nyield self.events[event_id]n

  • Splunk代表一個擁有搜索功能的索引集合
  • 每一個集合中包含一個布隆過濾器,一個倒排詞表(字典),和一個存儲所有事件的數組
  • 當一個事件被加入到索引的時候,會做以下的邏輯
    • 為每一個事件生成一個unqie id,這裡就是序號
    • 對事件進行分詞,把每一個詞加入到倒排詞表,也就是每一個詞對應的事件的id的映射結構,注意,一個詞可能對應多個事件,所以倒排表的的值是一個Set。倒排表是絕大部分搜索引擎的核心功能。
  • 當一個詞被搜索的時候,會做以下的邏輯
    • 檢查布隆過濾器,如果為假,直接返回
    • 檢查詞表,如果被搜索單詞不在詞表中,直接返回
    • 在倒排表中找到所有對應的事件id,然後返回事件的內容

我們運行下看看把:

s = Splunk()ns.add_event(src_ip = 1.2.3.4)ns.add_event(src_ip = 5.6.7.8)ns.add_event(dst_ip = 1.2.3.4)nnfor event in s.search(1.2.3.4):nprint eventnprint -nfor event in s.search(src_ip):nprint eventnprint -nfor event in s.search(ip):nprint eventnnnsrc_ip = 1.2.3.4ndst_ip = 1.2.3.4n-nsrc_ip = 1.2.3.4nsrc_ip = 5.6.7.8n-nsrc_ip = 1.2.3.4nsrc_ip = 5.6.7.8ndst_ip = 1.2.3.4n

是不是很贊!

更複雜的搜索

更進一步,在搜索過程中,我們想用And和Or來實現更複雜的搜索邏輯。

上代碼:

class SplunkM(object):ndef __init__(self):nself.bf = Bloomfilter(64)nself.terms = {} # Dictionary of term to set of eventsnself.events = []nndef add_event(self, event):n"""Adds an event to this object"""nn# Generate a unique ID for the event, and save itnevent_id = len(self.events)nself.events.append(event)nn# Add each term to the bloomfilter, and track the event by each termnfor term in segments(event):nself.bf.add_value(term)nif term not in self.terms:nself.terms[term] = set()nnself.terms[term].add(event_id)nndef search_all(self, terms):n"""Search for an AND of all terms"""nn# Start with the universe of all events...nresults = set(range(len(self.events)))nnfor term in terms:n# If a term isnt present at all then we can stop lookingnif not self.bf.might_contain(term):nreturnnif term not in self.terms:nreturnnn# Drop events that dont match from our resultsnresults = results.intersection(self.terms[term])nnfor event_id in sorted(results):nyield self.events[event_id]nnndef search_any(self, terms):n"""Search for an OR of all terms"""nresults = set()nnfor term in terms:n# If a term isnt present, we skip it, but dont stopnif not self.bf.might_contain(term):ncontinuenif term not in self.terms:ncontinuenn# Add these events to our resultsnresults = results.union(self.terms[term])nnfor event_id in sorted(results):nyield self.events[event_id]n

利用Python集合的intersection和union操作,可以很方便的支持And(求交集)和Or(求合集)的操作。

運行結果如下:

s = SplunkM()ns.add_event(src_ip = 1.2.3.4)ns.add_event(src_ip = 5.6.7.8)ns.add_event(dst_ip = 1.2.3.4)nnfor event in s.search_all([src_ip, 5.6]):nprint eventnprint -nfor event in s.search_any([src_ip, dst_ip]):nprint eventnnnsrc_ip = 5.6.7.8n-nsrc_ip = 1.2.3.4nsrc_ip = 5.6.7.8ndst_ip = 1.2.3.4n

總結

以上的代碼只是為了說明大數據搜索的基本原理,包括布隆過濾器,分詞和倒排表。如果大家真的想要利用這代碼來實現真正的搜索功能,還差的太遠。所有的內容來自於Splunk Conf2017。大家如果有興趣可以去看網上的視頻。

  • 視頻
  • Slides

你想更深入了解學習Python知識體系,你可以看一下我們花費了一個多月整理了上百小時的幾百個知識點體系內容:

【超全整理】《Python自動化全能開發從入門到精通》筆記全放送


推薦閱讀:

學習TensorFlow,Python 需要掌握到什麼程度才可以?
解決 macOS 下 Python 安裝 Dlib 的問題:Cmake 找不到 boost
(如何(用Python)寫一個(Lisp)解釋器(上))
[9] Python句式特徵

TAG:Python | Python教程 | 大数据 |