當前位置:
首頁 > 科技 > 資料庫壓縮技術的過去與未來,另又有公司的資料庫被工程師刪了

資料庫壓縮技術的過去與未來,另又有公司的資料庫被工程師刪了

作者丨雷鵬

責編丨仲培藝

作為資料庫,在系統資源(CPU、內存、SSD、磁碟等)一定的前提下,我們希望:

存儲的數據更多:採用壓縮,這個世界上有各種各樣的壓縮演算法;

訪問的速度更快:更快的壓縮(寫)/解壓(讀)演算法、更大的緩存。

幾乎所有壓縮演算法都嚴重依賴上下文:

位置相鄰的數據,一般情況下相關性更高,內在冗餘度更大;

上下文越大,壓縮率的上限越大(有極限值)。

塊壓縮

傳統資料庫中的塊壓縮技術

對於普通的以數據塊/文件為單位的壓縮,傳統的(流式)數據壓縮演算法工作得不錯,時間長了,大家也都習慣了這種數據壓縮的模式。基於這種模式的數據壓縮演算法層出不窮,不斷有新的演算法實現。包括使用最廣泛的gzip、bzip2、Google的Snappy、新秀Zstd等。

gzip幾乎在在所有平台上都有支持,並且也已經成為一個行業標準,壓縮率、壓縮速度、解壓速度都比較均衡;

bzip2是基於BWT變換的一種壓縮,本質是上對輸入分塊,每個塊單獨壓縮,優點是壓縮率很高,但壓縮和解壓速度都比較慢;

Snappy是Google出品,優點是壓縮和解壓都很快,缺點是壓縮率比較低,適用於對壓縮率要求不高的實時壓縮場景;

LZ4是Snappy一個強有力的競爭對手,速度比Snappy更快,特別是解壓速度;

Zstd是一個壓縮新秀,壓縮率比LZ4和Snappy都高不少,壓縮和解壓速度略低;相比gzip,壓縮率不相上下,但壓縮/解壓速度要高很多。

對於資料庫,在計算機世界的太古代,為I/O優化的Btree一直是不可撼動的,為磁碟優化的Btree block/page size比較大,正好讓傳統數據壓縮演算法能得到較大的上下文,於是,基於block/page的壓縮也就自然而然地應用到了各種資料庫中。在這個蠻荒時代,內存的性能、容量與磁碟的性能、容量涇渭分明,各種應用對性能的需求也比較小,大家都相安無事。

現在,我們有了SSD、PCIe SSD、3D XPoint等,內存也越來越大,塊壓縮的缺點也日益突出:

塊選小了,壓縮率不夠;塊選大了,性能沒法忍;

更致命的是,塊壓縮節省的只是更大更便宜的磁碟、SSD;

更貴更小的內存不但沒有節省,反而更浪費了(雙緩存問題)。

於是,對於很多實時性要求較高的應用,只能關閉壓縮。

塊壓縮的原理

使用通用壓縮技術(Snappy、LZ4、zip、bzip2、Zstd等),按塊/頁(block/page)進行壓縮(塊尺寸通常是4KB~32KB,以壓縮率著稱的TokuDB塊尺寸是2MB~4MB),這個塊是邏輯塊,而不是內存分頁、塊設備概念中的那種物理塊。

啟用壓縮時,隨之而來的是訪問速度下降,這是因為:

寫入時,很多條記錄被打包在一起壓縮成一個個的塊,增大塊尺寸,壓縮演算法可以獲得更大的上下文,從而提高壓縮率;相反地,減小塊尺寸,會降低壓縮率。

讀取時,即便是讀取很短的數據,也需要先把整個塊解壓,再去讀取解壓後的數據。這樣,塊尺寸越大,同一個塊內包含的記錄數目越多。為讀取一條數據,所做的不必要解壓就也就越多,性能也就越差。相反地,塊尺寸越小,性能也就越好。

一旦啟用壓縮,為了緩解以上問題,傳統資料庫一般都需要比較大的專用緩存,用來緩存解壓後的數據,這樣可以大幅提高熱數據的訪問性能,但又引起了雙緩存的空間佔用問題:一是操作系統緩存中的壓縮數據;二是專用緩存(例如RocksDB中的DBCache)中解壓後的數據。還有一個同樣很嚴重的問題:專用緩存終歸是緩存,當緩存未命中時,仍需要解壓整個塊,這就是慢Query問題的一個主要來源(慢Query的另一個主要來源是在操作系統緩存未命中時)。

這些都導致現有傳統資料庫在訪問速度和空間佔用上是一個此消彼長、無法徹底解決的問題,只能採取一些折衷。

RocksDB 的塊壓縮

以RocksDB為例,RocksDB中的BlockBasedTable就是一個塊壓縮的SSTable,使用塊壓縮,索引只定位到塊,塊的尺寸在dboption里設定,一個塊中包含多條(key,value)數據,例如M條,這樣索引的尺寸就減小到了1/M:

M越大,索引的尺寸越小;

M越大,Block的尺寸越大,壓縮演算法(gzip、Snappy等)可以獲得的上下文也越大,壓縮率也就越高。

創建BlockBasedTable時,Key Value被逐條填入buffer,當buffer尺寸達到預定大小(塊尺寸,當然,一般buffer尺寸不會精確地剛好等於預設的塊尺寸),就將buffer壓縮並寫入BlockBasedTable文件,並記錄文件偏移和buffer中的第一個Key(創建index要用),如果單條數據太大,比預設的塊尺寸還大,這條數據就單獨佔一個塊(單條數據不管多大也不會分割成多個塊)。所有Key Value寫完以後,根據之前記錄的每個塊的起始Key和文件偏移,創建一個索引。所以在BlockBasedTable文件中,數據在前,索引在後,文件末尾包含元信息(作用相當於常用的FileHeader,只是位置在文件末尾,所以叫footer)。

搜索時,先使用searchkey找到searchkey所在的block,然後到DB Cache中搜索這個塊,找到後就進一步在塊中搜索searchkey,如果找不到,就從磁碟/SSD讀取這個塊,解壓後放入DB Cache。RocksDB中的DB Cache有多種實現,常用的包括LRU Cache,另外還有Clock Cache、Counting Cache(用來統計Cache命中率等),還有其他一些特殊的Cache。

一般情況下,操作系統會有文件緩存,所以同一份數據可能既在DB Cache中(解壓後的數據),又在操作系統Cache中(壓縮的數據)。這樣會造成內存浪費,所以RocksDB提供了一個折衷:在dboption中設置DIRECT_IO選項,繞過操作系統Cache,這樣就只有DB Cache,可以節省一部分內存,但在一定程度上會降低性能。

傳統非主流壓縮:FM-Index

FM-Index的全名是Full Text Matching Index,屬於Succinct Data Structure家族,對數據有一定的壓縮能力,並且可以直接在壓縮的數據上執行搜索和訪問。

FM-Index的功能非常豐富,歷史也已經相當悠久,不算是一種新技術,在一些特殊場景下也已經得到了廣泛應用,但是因為各種原因,一直不溫不火。最近幾年,FM-Index開始有些活躍,首先是GitHub上有個大牛實現了全套Succinct演算法,其中包括FM-Index,其次Berkeley的Succinct項目也使用了FM-Index。

FM-Index屬於Offline演算法(一次性壓縮所有數據,壓縮好之後不可修改),一般基於BWT變換(BWT變換基於後綴數組),壓縮好的FM-Index支持以下兩個最主要的操作:

data = extract(offset, length)

= search(string) ,返回多個匹配string的位置/偏移(offset)

FM-Index還支持更多其他操作,感興趣的朋友可以進一步調研。

但是,在筆者看來,FM-Index有幾個致命的缺點:

實現太複雜(這一點可以被少數大牛們克服,不提也罷);

壓縮率不高(比流式壓縮例如gzip差太多);

搜索(search)和訪問(extract)速度都很慢(在2016年最快的CPU i7-6700K上,單線程吞吐率不超過7MB/sec);

壓縮過程又慢又耗內存(Berkeley的Succinct壓縮過程內存消耗是源數據的50倍以上);

數據模型是Flat Text,不是資料庫的KeyValue模型。

可以用一種簡單的方式把Flat Model轉化成KeyValue Model:挑選一個在Key和Value中都不會出現的字元「#」(如果無法找出這樣的字元,需要進行轉義編碼),每個Key前後都插入該字元,Key之後緊鄰的就是Value。如此,search(#key#)返回了#key#出現的位置,我們就能很容易地拿到Value了。

Berkeley的Succinc項目在FM-Index的Flat Text模型上實現了更豐富的行列(Row-Column)模型,付出了巨大的努力,達到了一定的效果,但離實用還相差太遠。

感興趣的朋友可以仔細調研下FM-Index,以驗證筆者的總結與判斷。

Terark的可檢索壓縮(Searchable Compression)

Terark公司提出了「可檢索壓縮(Searchable Compression)」的概念,其核心也是直接在壓縮的數據上執行搜索(search)和訪問(extract),但數據模型本身就是KeyValue模型,根據其測試報告,速度要比FM-Index快得多(兩個數量級),具體闡述:

摒棄傳統資料庫的塊壓縮技術,採用全局壓縮;

對Key和Value使用不同的全局壓縮技術;

對Key使用有搜索功能的全局壓縮技術COIndex(對應FM-Index的search);

對Value使用可定點訪問的全局壓縮技術PA-Zip(對應FM-Index的extract)。

對Key的壓縮:CO-Index

我們需要對Key進行索引,才能有效地進行搜索,並訪問需要的數據。

普通的索引技術,索引的尺寸相對於索引中原始Key的尺寸要大很多,有些索引使用前綴壓縮,能在一定程度上緩解索引的膨脹,但仍然無法解決索引佔用內存過大的問題。

我們提出了CO-Index(Compressed Ordered Index)的概念,並且通過一種叫做Nested Succinct Trie的數據結構實踐了這一概念。

較之傳統實現索引的數據結構,Nested Succinct Trie的空間佔用小十幾倍甚至幾十倍。而在保持該壓縮率的同時,還支持豐富的搜索功能:

精確搜索;

範圍搜索;

順序遍歷;

前綴搜索;

正則表達式搜索(不是逐條遍歷)。

與FM-Index相比,CO-Index也有其優勢(假定FM-Index中所有的數據都是Key)。

表1 FM-Index對比CO-Index

CO-Index的原理

實際上我們實現了很多種CO-Index,其中Nested Succinct Trie是適用性最廣的一種,在這裡對其原理做一個簡單介紹:

Succinct Data Structure介紹

Succinct Data Structure是一種能夠在接近於資訊理論下限的空間內來表達對象的技術,通常使用點陣圖來表示,用點陣圖上的rank和select來定位。

雖然能夠極大降低內存佔用量,但實現起來較為複雜,並且性能低很多(時間複雜度的常數項很大)。目前開源的有SDSL-Lite,我們則使用自己實現的Rank-Select,性能也高於開源實現。

以二叉樹為例

傳統的表現形式是一個結點中包含兩個指針:struct Node { Node *left, *right; };

每個結點佔用 2ptr,如果我們對傳統方法進行優化,結點指針用最小的bits數來表達,N個結點就需要2*[log2(N)]個bits。

對比傳統基本版和傳統優化版,假設共有216個結點(包括null結點),傳統優化版需要2 bytes,傳統基本版需要4/8 bytes。

對比傳統優化版和Succinct,假設共有10億(~230)個結點。

傳統優化版每個指針佔用[log2(230)]=30bits,總內存佔用:($frac$)*230≈ 7.5GB。

使用Succinct,佔用:($frac$)*230≈ 312.5MB(每個結點2.5 bits,其中0.5bits是 rank-select 索引佔用的空間)。

Succinct Tree

Succinct Tree有很多種表達方式,這裡列出常見的兩種:

圖1 Succinct Tree表達方式示例

Succinct Trie = Succinct Tree + Trie Label

Trie可以用來實現Index,圖2這個Succinct Trie用的是LOUDS表達方式,其中保存了hat、is、it、a、四個Key。

Patricia Trie加嵌套

僅使用Succinct技術,壓縮率遠遠不夠,所以又應用了路徑壓縮和嵌套。這樣一來,壓縮率就上了一個新台階。

把上面這些技術綜合到一起,就是我們的Nest Succinct Trie。

對Value的壓縮: PA-Zip

我們研發了一種叫做PA-Zip (Point Accessible Zip)的壓縮技術:每條數據關聯一個ID,數據壓縮好之後,就可以用相應的ID訪問那條數據。這裡,ID就是那個Point,所以叫做Point Accessible Zip。

PA-Zip對整個資料庫中的所有Value(KeyValue資料庫中所有Value的集合)進行全局壓縮,而不是按block/page進行壓縮。這是針對資料庫的需求(KeyValue 模型),專門設計的一個壓縮演算法,用來解決傳統資料庫壓縮的問題:

壓縮率更高,沒有雙緩存的問題,只要把壓縮後的數據裝進內存,不需要專用緩存,可以按ID直接讀取單條數據,如果把這種讀取單條數據看作是一種解壓,那麼:

按ID順序解壓時,解壓速度(Throughput)一般在500MB每秒(單線程),最高達到約7GB/s,適合離線分析性需求,傳統資料庫壓縮也能做到這一點;

按ID隨機解壓時,解壓速度一般在300MB每秒(單線程),最高達到約3GB/s,適合在線服務需求,這一點完勝傳統資料庫壓縮:按隨機解壓300MB/s算,如果每條記錄平均長度1K,相當於QPS = 30萬;如果每條記錄平均長度300個位元組,相當於QPS = 100萬;

預熱(warmup),在某些特殊場景下,資料庫可能需要預熱。因為去掉了專用緩存,TerarkDB的預熱相對簡單高效,只要把mmap的內存預熱一下(避免Page Fault即可),資料庫載入成功後就是預熱好的,這個預熱的Throughput就是SSD連續讀的IO性能(較新的SSD讀性能超過3GB/s)。

與FM-Index相比,PA-Zip解決的是FM-Index的extract操作,但性能和壓縮率都要好得多:

表2 FM-Index對比PA-Zip

結合Key與Value

Key以全局壓縮的形式保存在CO-Index中,Value以全局壓縮的形式保存在 PA-Zip中。搜索一個Key,會得到一個內部ID,根據這個ID,去PA-Zip中定點訪問該ID對應的Value,整個過程中只觸碰需要的數據,不需要觸碰其他數據。

如此無需專用緩存(例如RocksDB中的DBCache),僅使用mmap,完美配合文件系統緩存,整個DB只有mmap的文件系統緩存這一層緩存,再加上超高的壓縮率,大幅降低了內存用量,並且極大簡化了系統的複雜性,最終完成資料庫性能的大幅提升,從而同時實現了超高的壓縮率和超高的隨機讀性能。

從更高的哲學層面看,我們的存儲引擎很像是用構造法推導出來的,因為CO-Index和PA-Zip緊密配合,完美匹配KeyValue模型,功能上「剛好夠用」,性能上壓榨硬體極限,壓縮率逼近資訊理論的下限。相比其他方案:

傳統塊壓縮是從通用的流式壓縮衍生而來,流式壓縮的功能非常有限,只有壓縮和解壓兩個操作,對太小的數據塊沒有壓縮效果,也無法壓縮數據塊之間的冗餘。把它用到資料庫上,需要大量的工程努力,就像給汽車裝上飛機機翼,然後要讓它飛起來。

相比FM-Index,情況則相反,FM-Index的功能非常豐富,它就必然要為此付出一些代價——壓縮率和性能。而在KeyValue模型中,我們只需要它那些豐富功能的一個非常小的子集(還要經過適配和轉化),其他更多的功能毫無用武之地,卻仍然要付出那些代價,就像我們花了很高的代價造了一架飛機,卻把它按在地上,只用輪子跑,當汽車用。

圖2 用LOUDS方式表達的Succinct Tree

圖3 路徑壓縮與嵌套

附錄

壓縮率&性能測試比較

數據集:Amazon movie data

Amazon movie data (~8 million reviews),數據集的總大小約為9GB, 記錄數大約為800萬條,平均每條數據長度大約1K。

Benchmark代碼開源:參見Github倉庫https://github.com/Terark/terarkdb-benchmark/tree/master/doc/movies

壓縮率(見圖4)

圖4 壓縮率對比

隨機讀(見圖5)

圖5 隨機讀性能對比

這是在內存足夠的情況下,各個存儲引擎的性能。

延遲曲線(見圖6)

圖6 延遲曲線對比

數據集:Wikipedia英文版

Wikipedia英文版的所有文本數據,109G,壓縮到23G。

數據集:TPC-H

在TPC-H的lineitem數據上,使用TerarkDB和原版RocksDB(BlockBasedTable)進行對比測試:

表3 TerarkDB與原版RocksDB對比測試

API 介面

TerarkDB = Terark SSTable + RocksDB

RocksDB最初是Facebook對Google的LevelDB的一個fork,編程介面上兼容LevelDB,並增加了很多改進。

RocksDB對我們有用的地方在於其SSTable可以plugin,所以我們實現了一個RocksDB的SSTable,將我們的技術優勢通過RocksDB發揮出來。

雖然RocksDB提供了一個相對完整的KeyValueDB框架,但要完全適配我們特有的技術,仍有一些欠缺,所以需要對RocksDB本身也做一些修改。將來可能有一天我們會將自己的修改提交到RocksDB官方版。

Github鏈接:TerarkDB(https://github.com/Terark/terarkdb),TerarkDB包括兩部分:

terark-zip-rocksdb(https://github.com/terark/terark-zip-rocksdb),(Terark SSTable forrocksdb)

Terark fork rocksdb(https://github.com/Terark/rocksdb),(必須使用這個修改版的rocksdb)

為了更好的兼容性,TerarkDB對RocksDB的API沒有做任何修改,為了進一步方便用戶使用TerarkDB,我們甚至提供了一種方式:程序無需重新編譯,只需要替換 librocksdb.so並設置幾個環境變數,就能體驗TerarkDB。

如果用戶需要更精細的控制,可以使用C++ API詳細配置TerarkDB的各種選項。

目前大家可以免費試用,可以做性能評測,但是不能用於production,因為試用版會隨機刪掉0.1%的數據。

Terark命令行工具集

我們提供了一組命令行工具,這些工具可以將輸入數據壓縮成不同的形式,壓縮後的文件可以使用Terark API或(該工具集中的)其他命令行工具解壓或定點訪問。

詳情參見Terark wiki中文版(https://github.com/Terark/terark-wiki-zh_cn)。

號外:

在荷蘭海牙的一家雲主機商Verelox官方網站的首頁,有這樣一個公告:

聲明內容:

首先,我們為此次事件給大家造成的不便深表歉意。

我們非常抱歉地告知各位,我們的一位前管理員此前刪除了我們全部的用戶數據,多數伺服器也同時遭其清空

因此,我們採取了一些必要的緊急措施,讓我們的網路暫時處於離線狀態。

同時,我們也一直在全力恢複數據,但我們不得不承認將所有丟失數據全部找回的可能性機器渺茫。

我們的網路以及主機服務將於本周伴隨安全更新同步恢復。

受此次事件波及的用戶如仍有意選擇我們的產品,將在今後的服務中收到我們的補償。

注意:我們在這裡建議用戶更改所有的伺服器密碼。

狀態更新1:(已完成)UTC時間下午6點,所有坐標荷蘭的專用伺服器恢復聯機在線。

雲伺服器方面,我們仍在持續探索解決方案。

目前,所有虛擬機數據正在上傳至一個新的伺服器。

——Verelox

看了之後很容易讓人傷心,Verelox也著實無奈,小編不禁想和讀者互動幾個問題或觀點:

你的備份做好了嗎?

重視了運維人員?

對於雲計算你持什麼態度?

歡迎在留言區分享你的看法和運維故事,對於留言點贊數前五的故事,贈予無本《程序員》6月期,包郵!(截止6月12日15:00)

點擊展開全文

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 CSDN 的精彩文章:

跳過肉眼?全面解讀Google最新發布的JPEG壓縮演算法Guetzli
中國最強的人工智慧學術會議來了
又是谷歌!持續交付武器Spinnaker褪去面紗,里程碑版本1.0正式發布
創新之都,百家爭鳴:SDCC 2017·深圳站,期待與你相約
為什麼這麼多年,使用Vim的人還是這麼多?

TAG:CSDN |

您可能感興趣

資料庫領域又有新成員了?無伺服器資料庫,了解一下!
工資少發,辭職員工賭氣刪除公司電腦資料,員工爽了,結局卻意想不到
為了能拿到蘋果新機的資料和配件,曾有人挖通了通往工廠的隧道…
誤刪資料庫的順豐工程師,真的應該被開除么?
你真的了解資料庫工程師嗎?寫給想從事資料庫方面工作的朋友
資料庫的未來在雲端
資料庫緊急恢復過程
童瑤太努力了,趕飛機還拿著「公文包」,薄得只能裝資料了!
資料庫之資料庫的部署與管理
老員工休完產假上班,新員工被卸磨殺驢,刪除電腦所有資料
什麼因素影響了資料庫的性能
誤刪生產資料庫血案,順豐一高級工程師被開除
用了超融合一體機,資料庫也瘋狂
庫克:過於詳細的用戶資料有可能被用來做很多「邪惡」的事情
刪了資料庫還想跑?連AI都沒能逃脫制裁
資料庫技術分享:淺談資料庫連接
女員工被開除,怒刪公司資料,然後重新找工作,轉正時卻傻眼了!
資料庫的封閉性
工作時間的增加,電腦上的文件資料越來越多,該如何處理?
區塊鏈資料庫與現有資料庫系統之比較