作者 | GL
導(dǎo)讀
提升廣告檢索漏斗一致性,要求在粗排階段引入更豐富的信號,這些信號的需求量已經(jīng)遠遠超出了內(nèi)存的承受能力。為此,我們考慮引入基于NVMe SSD的分層存儲。本文詳細探討了一種長尾可控的方法論,以及在這個方法論的約束下,如何極致優(yōu)化讀調(diào)度。這些方法對于實施類似LargerThanMem的技術(shù)也將提供有價值的啟發(fā)。
01業(yè)務(wù)背景
業(yè)務(wù)需要更大存儲空間,需求量預(yù)期遠超過內(nèi)存可承受。舉例來說,客戶落地頁是客戶營銷內(nèi)容的核心陣地,增強對客戶落地頁內(nèi)容特征理解,才能實現(xiàn)用戶興趣和客戶投放的精準(zhǔn)匹配,提升用戶體驗和轉(zhuǎn)化率,鳳巢正排服務(wù)引入 URL 明文是關(guān)鍵一步。鳳巢正排服務(wù)檢索查詢完全基于內(nèi)存,內(nèi)存存儲著億級別廣告物料和檢索線程需要的上下文。鳳巢正排服務(wù)實例上萬,單實例內(nèi)存 Quota 已高達云原生紅線,常態(tài)利用率 85+%,URL 明文引入后,即使業(yè)務(wù)上極致去重壓縮,單實例還需增加數(shù)十GB,預(yù)期隨廣告庫會繼續(xù)增長,內(nèi)存已遠遠不夠。
廣告檢索過程引入基于 NVMe SSD 的分級存儲,長尾控制尤其關(guān)鍵。檢索效果對處理性能極為敏感,若查詢超時導(dǎo)致檢索 KPI 失效,將可能造成廣告丟失,從而帶來收入損失。以鳳巢正排服務(wù)來看,單 PV 召回廣告創(chuàng)意量在萬級別,正排服務(wù)通過多分庫分包實現(xiàn)并行,即使在單個包內(nèi),廣告創(chuàng)意數(shù)量也可達數(shù)百。從檢索系統(tǒng)的算力分配來看,針對百條 URL 明文的查詢,其長尾性能空間僅為 5ms。
02技術(shù)背景
SSD 作為內(nèi)存存儲擴展,缺點是讀寫干擾不可控。SSD[1] 的操作要求必須按頁進行讀寫,否則會導(dǎo)致讀寫放大效應(yīng)。此外,SSD 硬件特性還要求“擦除后寫”,因此寫數(shù)據(jù)會額外引起數(shù)據(jù)搬運損耗和擦除損耗,而擦除操作的耗時往往是讀操作時間的 1000 倍!更令人擔(dān)憂的是,對于那些需要極低隨機讀取的業(yè)務(wù)而言,SSD 就像一個無法調(diào)節(jié)的『黑匣子』,應(yīng)用無法直接干預(yù)由讀寫干擾帶來的查詢長尾問題。
業(yè)界常用訪盤優(yōu)化手段,未能控制讀長尾。業(yè)界常用軟件寫盤優(yōu)化,確實可以顯著提升吞吐,但對長尾控制力度有限,主要手段是:① 把隨機寫轉(zhuǎn)化為對齊寫、順序?qū)懀?整文件大塊刪除,③ 流量低峰期觸發(fā)盤 GC。比如論文 FAST' 15《F2FS: A New File System for Flash Storage》[2] 介紹了一種面向 SSD 的全新文件系統(tǒng)F2FS,基于 Log-Structured File System 的技術(shù),將所有的寫入操作轉(zhuǎn)換為日志記錄,從而減少寫放大效應(yīng),并提高了寫入吞吐。下圖中展示 F2FS v.s. ext4 在隨機寫場景(varmail、oltp)獲得吞吐優(yōu)勢:
△F2FS: A New File System for Flash Storage》 圖4
業(yè)界涌現(xiàn)出新硬件控制讀長尾。硬件標(biāo)準(zhǔn)如 OpenChannel[3,4],在塊存儲之外還額外提供了接口,使得業(yè)務(wù)可以更加精細地控制數(shù)據(jù)位置和命令調(diào)度,從而結(jié)合業(yè)務(wù)特點,在一定程度上實現(xiàn)了讀寫隔離,進而控制了長尾效應(yīng)。曾經(jīng),Linux LightNVM[5] 試圖標(biāo)準(zhǔn)化對 OpenChannel 的操作,但由于難以定義合理且簡單的塊操作接口,最終被放棄,這也催生了 Zoned Namespace SSD(ZNS)[6] 新的硬件標(biāo)準(zhǔn)。ZNS 硬件并不是傳統(tǒng)的塊存儲,而是一種稱為 Zone 存儲的概念。整個固態(tài)硬盤被劃分為多個等長的區(qū)域,稱為 Zone。Zone 內(nèi)的數(shù)據(jù)必須以順序的頁對齊方式進行寫入,并且在進行 Zone 內(nèi)數(shù)據(jù)復(fù)寫之前,需要對整個 Zone 進行 reset 操作。ZNS 硬件層面,也按 Zone 接口做了擦除單元隔離。
△《ZNS: Avoiding the Block Interface Tax for Flash-based SSDs》圖5
新硬件的引入和打磨需要較長的周期,短期的業(yè)務(wù)需求亟需滿足。從長遠來看,ZNS 固態(tài)硬盤是未來的發(fā)展趨勢,我們也已經(jīng)和基礎(chǔ)架構(gòu)團隊共同探索。然而,在當(dāng)前情況下,我們需要充分利用現(xiàn)有的檢索池中的 Nvme 存儲。為此,我們發(fā)起了 Ecomm Uniform SSD Layer - SsdEngine 項目,其目標(biāo)是在底層集成各種硬件(包括 NVMe、ZNS),在上層根據(jù)典型的商業(yè)業(yè)務(wù)場景封裝接口,讓商業(yè)業(yè)務(wù)最大限度用上硬件發(fā)展和軟硬件結(jié)合的技術(shù)紅利。
△SsdEngine整體架構(gòu)
通用場景 NVMe 長尾完全不可控,檢索特化場景長尾可控。Nvme SSD 在實際應(yīng)用中確實受到多種讀寫干擾因素的影響,其主要因素包括讀寫單元大小(ValueSize)、讀寫頻次(IOPS)、數(shù)據(jù)生命周期一致性(Lifetime)等等。這些影響因素的作用是復(fù)雜的,且無法簡單地通過公式化加以描述 [7]。然而,檢索業(yè)務(wù)也有應(yīng)用特殊性:檢索業(yè)務(wù)屬于重讀輕寫的場景,在滿足足夠吞吐用于回溯止損的前提下,我們甚至愿意在一定程度上犧牲一部分寫吞吐,以換取更為穩(wěn)定的讀性能。基于這一背景,結(jié)合檢索業(yè)務(wù)的獨特特點,我們采用了硬件友好的磁盤訪問模式(Disk Access Pattern),并設(shè)計了一套基準(zhǔn)測試(Benchmark)方案,以此來進行系統(tǒng)性能評測。在評測中,我們針對占檢索池大頭的數(shù)種 NVMe 盤型號進行了測試,最終得出以下結(jié)論:通過控制讀單元大小(ValueSize = 4K)以及調(diào)整讀寫吞吐比(IOPS Pattern),能夠有效操控讀寫影響,從而實現(xiàn)對讀操作長尾的控制。下圖是對于Intel P3600 盤,在讀 999per 5ms 的情況下,物理盤最佳“讀寫配比”。
△Intel P3600 讀長尾可控的讀寫配比
混布環(huán)境下控制單盤 IOPS 是涉及多層次的復(fù)雜問題,本文只分享單實例實踐。在單個實例中,要嚴格控制讀寫吞吐,就要從默認的基于 PageCache 的讀寫模式,轉(zhuǎn)換為使用 Direct I/O(以下簡稱 DIO)模式,以便獲取硬件級別的讀寫控制權(quán)。操作系統(tǒng)將數(shù)據(jù)存儲在 PageCache 中,以供后續(xù)的 I/O 操作直接從內(nèi)存中讀取或?qū)懭耄瑥亩@著提高讀寫性能。在切換到 DIO 讀寫模式時,為了彌補缺少 PageCache 的性能影響,我們引入了 Libaio/IoUring 異步訪問機制,充分發(fā)揮 SSD 的并行處理能力。下圖是隨機讀 randread 和順序讀 read 混合的評測,如果純順序讀,那么 PageCache 吞吐可達 1+G,且具備性能優(yōu)勢,為此我們也進一步做了頁緩存的工作,此處先按下不表。
△單機吞吐評測數(shù)據(jù)
03解決方案
3.1集成 Libaio
Linux Libaio 的操作接口和工作原理十分直觀。常規(guī)操作接口分三步:
(1)通過 io_prepare 準(zhǔn)備異步請求。
(2)io_submit 發(fā)送一批請求。
(3) io_getevents 采用 polling 的方式等待所有請求結(jié)束。
工作原理層面,io_submit 將所有請求都提交給了 IO 調(diào)度器,IO 調(diào)度器做完合并、排序類調(diào)度優(yōu)化后,通過對應(yīng)的設(shè)備驅(qū)動程序提交給具體的設(shè)備。經(jīng)過一段時間,讀請求被設(shè)備處理完成,CPU 將收到中斷信號,設(shè)備驅(qū)動程序注冊的處理函數(shù)將在中斷上下文中被調(diào)用,調(diào)用 end_request 函數(shù)來結(jié)束這次請求,將 IO 請求的處理結(jié)果填回對應(yīng)的 io_event 中,喚醒 io_getevents。
△Libaio 接口示例
SsdEngine 集成 Libaio 的方式也非常直觀。
(1)初始化 IO 任務(wù)隊列大小為 iodepth。
(2)批量設(shè)置 nr 個 IO 任務(wù)的讀參數(shù),包含文件的句柄、大小、偏移量。
(3)一次性提交 nr 個 IO 任務(wù)的讀請求。
(4)針對提交的 IO 任務(wù),我們采用分批次等待的方法,設(shè)置參數(shù) min_wait_nr 和 batch_timeout,其中 min_wait_nr 的值為 min(nr >> 2, nr - completed) ,作用是減少 io_getevents 系統(tǒng)調(diào)用損耗,并實現(xiàn) IO 任務(wù)與后續(xù) CPU 任務(wù)的并行化。batch_timeout 會配合整體 timeout,控制整體超長耗時。
// 初始化 Libaio 隊列 io_queue_init(iodepth, context) // 設(shè)置 nr 個 IO 任務(wù)的讀參數(shù) for (int i = 0; i < nr; i++) { io_prep_pread(iocb_list[i], fd, page[i], page_size[i], page_offset[i]); } // 提交 nr 個 IO 任務(wù) io_submit(context, nr, iocb_list /*start*/); // 分批次等待,設(shè)置最小等待個數(shù) min_wait_nr,最大等待個數(shù) max_nr - completed,以及超時 ts while (completed < nr) { int res = io_getevents(context, min_wait_nr, max_nr - completed/*nr*/, events, &ts); // IO 任務(wù)正確性校驗 for (int = 0; i < res; i++) { assert(events[i] == page_size[index]); } completed += res; if (total_time_cost > pv_timeout) { io_cancel(); } }
3.2 初步集成 IoUring
IoUring 執(zhí)行過程和 Libaio 大同小異,但更高性能。IoUring 通過實現(xiàn)兩個 Ring 結(jié)構(gòu),將其映射到用戶空間并與內(nèi)核共享,以降低元數(shù)據(jù)復(fù)制和系統(tǒng)調(diào)用開銷。Submission Ring 包含應(yīng)用程序發(fā)出的 I/O 請求。Completion ring 包含已完成的 I/O 請求的結(jié)果。應(yīng)用程序可以通過更新 Ring 的頭/尾指針來插入和檢索 I/O 請求,而不需要使用系統(tǒng)調(diào)用。總結(jié)來說,IoUring 之所以比 Libaio 的性能更優(yōu),主要有以下三點:
1、系統(tǒng)調(diào)用少:Libaio 在設(shè)計上每次 IO 操作需要兩個系統(tǒng)調(diào)用,IoUring 僅在 IO 任務(wù)提交時有系統(tǒng)調(diào)用,等待 IO 任務(wù)完成則不需要,比 Libaio 少一次系統(tǒng)調(diào)用。
2、數(shù)據(jù)復(fù)制:Libaio 存在元數(shù)據(jù)的復(fù)制,IoUring 通過用戶空間和內(nèi)核共享,則不需要數(shù)據(jù)復(fù)制。
3、數(shù)據(jù)中斷:Libaio 依賴基于數(shù)據(jù)中斷的完成通知,IoUring 在 polling 模式下不依賴硬件中斷;使用 polling 需要使用內(nèi)核線程 kthread,我們是混部環(huán)境,該方式不采用。
△IoUring 實現(xiàn)原理
SsdEngine 集成 IoUring 的過程卻經(jīng)歷了一番探索。我們希望使用和 Libaio 同一語義的接口 io_uring_wait_cqes,IoUring Manual[14] 中解釋了該函數(shù)的核心參數(shù)為,最小等待 IO 任務(wù)數(shù) wait_nr 和等待超時 timeout,但是對 timeout 發(fā)生時,已經(jīng)完成多少個 IO 任務(wù),以及對已完成 IO 任務(wù)的處理方式?jīng)]有做過多的介紹。我們先嘗試參考 Libaio 同語義接口和參數(shù),假設(shè)返回的 IO 任務(wù)都在 cqe 隊列中直到 nullptr,又嘗試了作者在 ?issue?[15] 中的回答,使用宏 io_uring_for_each_cqe 處理已完成的 IO 任務(wù),但都會在任務(wù)的結(jié)果校驗環(huán)節(jié)發(fā)生錯誤。最終通過對 kernel 5.10 源碼的跟蹤,我們發(fā)現(xiàn)在 io_uring_wait_cqes 函數(shù)實現(xiàn)中增加了 io_uring_prep_timeout 超時任務(wù),需要業(yè)務(wù)單獨處理。我們還發(fā)現(xiàn)不同版本內(nèi)核,超時任務(wù)處理并不相同。
io_uring_wait_cqes:填入 wait_nr 等待任務(wù)數(shù)和 ts 超時參數(shù) 1. __io_uring_submit_timeout(ring, wait_nr, ts); 該函數(shù)的一個重點是,給 sqe 隊列添加了一個超時任務(wù):io_uring_prep_timeout,這個任務(wù)是管理 wait_nr 和 ts 的關(guān)鍵 2. __io_uring_get_cqe(ring, cqe_ptr, to_submit, wait_nr, sigmask); 2.1 _io_uring_get_cqe(ring, cqe_ptr, &data); 這個函數(shù)是最終調(diào)用的主要處理邏輯 2.1.1 __io_uring_peek_cqe(ring, &cqe, &nr_available); 該函數(shù)不阻塞直接獲取完成任務(wù)的隊列 head,并且表明當(dāng)前隊列有 nr_available 個; 一個觀察是在返回值沒有 error, cqe 不為 null 時, nr_available 才有含義,因為通過打點,有 cqe 為 null,但 nr_aviailable 不為 0 的情況; 2.1.2 __sys_io_uring_enter2(ring->enter_ring_fd, data->submit, data->wait_nr, flags, data->arg,data->sz); 提交 sqe 隊列。io_uring_submit 最終調(diào)用的也是該函數(shù),使用該接口不需要再顯示調(diào)用 io_uring_submit!
面向 io_uring_wait_cqes 實現(xiàn)的 kernel 版本自適應(yīng)編程。總之,我們遇到的問題是在不同內(nèi)核版本中 io_uring_wait_cqes 的內(nèi)部實現(xiàn)方式有所不同。具體而言,在 kernel 5.10 及其之前的版本,會在函數(shù)實現(xiàn)中新增 io_uring_prep_timeout 任務(wù)處理超時,等待超時退出時,用戶需要感知并單獨處理該超時任務(wù)。而在 kernel 5.11 及其之后的版本中,函數(shù)實現(xiàn)則不再添加 io_uring_prep_timeout 任務(wù)。我們線上使用的內(nèi)核版本屬于前者,因此,在集成 IoUring 時,我們采取添加超時任務(wù)標(biāo)識(LIBURING_UDATA_TIMEOUT)判斷的方式來兼容這兩個內(nèi)核版本。在超時退出時,低版本內(nèi)核生成的超時任務(wù)會匹配 LIBURING_UDATA_TIMEOUT 的條件分支,此時我們會跳過對該任務(wù)的額外處理。而高版本內(nèi)核則不會觸發(fā)這個條件分支。
// 初始化 IoUring 隊列 io_uring_queue_init(iodepth, io_uring, 0 /*flags*/); // 設(shè)置 nr 個 IO 任務(wù)的讀參數(shù) for (int i = 0; i < nr; i++) { io_uring_prep_readv(sqe, fd, iovecs[i], 1, page_offset[i]); } // 一次性提交任務(wù)【debug 之后發(fā)現(xiàn),使用 io_uring_wait_cqes 接口不需要再顯示的提交任務(wù)】 // - io_uring_submit(io_uring); // 設(shè)置 ts 超時參數(shù), wait_nr 等待任務(wù)數(shù)限制;該函數(shù)的返回,要么等到 wait_nr 個任務(wù)結(jié)束,要么等待超時 while (completed < nr) { io_uring_wait_cqes(_s_p_local_io_uring, &wait_cqe, wait_nr, &ts, nullptr /*sigmask*/); io_uring_for_each_cqe(io_uring, head, cqe) { // 判斷是否為超時 IO 任務(wù) if (cqe->user_data == LIBURING_UDATA_TIMEOUT) { continue; } process(cqe); io_uring_cq_advance(io_uring, 1); completed++; } }
3.3 自適應(yīng)切換 Libaio/IoUring
IoUring 有 8% 性能優(yōu)勢。無論是 FIO 壓測效果,還是 SsdEngine 集成效果,都能看出在廠內(nèi)機器環(huán)境下,IoUring 較 Libaio 可提升 8% 的吞吐。
SsdEngine 要盡可能使用 IoUring。但 IoUring 依賴內(nèi)核版本升級,這也是個較長期的過程。為此我們實現(xiàn)了自適應(yīng)切換并行調(diào)度器,在 5 系之下內(nèi)核的機器上,自動切換為 Libaio,在 5 系之上內(nèi)核的機器,自動切換為 IoUring,并且優(yōu)先 IoUring。
if (io_uring_queue_init(env_test_iodepth, &ring, 0) == 0) { io_uring_queue_exit(&ring); return new(std::nothrow) UringPageScheduler; } else { return new(std::nothrow) AioPageScheduler; }
3.4流水線設(shè)計
在分層存儲中,存在兩種經(jīng)典的索引方式:HashKV[8,9] 和 LSM[10]。HashKV 一般是全內(nèi)存索引,基于哈希函數(shù)將鍵映射到存儲位置,因此適用于快速查找,但在范圍查詢上表現(xiàn)相對較差。相比之下,LSM(Log-Structured Merge)索引采用多層次、順序?qū)懭氲姆绞剑m合高吞吐量的寫入操作和范圍查詢,但可能在單個鍵查找上略顯繁瑣。對于檢索多讀少寫且點查的場景下,我們采用了 HashKV。
檢索過程中,一次請求會有多個 KV 查詢操作,引入異步并行 IO 的簡易模式是:基于內(nèi)存串行查詢 HashTable 獲取 value 存儲地址,一次性發(fā)起并行訪盤 IO 操作,再等待任務(wù)結(jié)束。
特別說明:
(1)對于跨多頁的大 Value,在構(gòu)造查詢?nèi)蝿?wù)時候,會拆分為多個按頁大小子查詢?nèi)蝿?wù)。
(2)不足一頁按頁查詢。
(3)一次 PV 中重復(fù)頁面查詢會被去重。
簡易查詢模式抽象如下圖。橫軸代表時間線,縱軸從上到下依次為應(yīng)用層代碼的調(diào)用順序,在一次批量查詢 IO 任務(wù)個數(shù) batch_size 大于并行 IO 隊列的大小(iodepth)時,會重復(fù)進行調(diào)度流程:schedule- 批量(iodepth 個)查詢內(nèi)存中的 HashKV 獲取 value 存儲地址, pread - 批量(iodepth 個)設(shè)置 IO 任務(wù)的參數(shù),submit- 批量(iodepth 個)提交 IO 任務(wù)進行處理,wait- 根據(jù) min_nr/max_nr 和 timeout 參數(shù)分批次等待 IO 任務(wù)的完成,在等待 IO 任務(wù)的過程中,并行進行這部分的數(shù)據(jù)校驗,直到等到所有(iodepth 個)IO 任務(wù)的完成。
△簡單查詢模式
我們的優(yōu)化思路是:把當(dāng)前的串行的 schedule-submit-wait 模式,改為流水線,增加 IO 和 CPU 的處理并行度。具體實現(xiàn)上,分批次提交任務(wù),等待任務(wù)的過程中,執(zhí)行 HashTable 查詢。面向用戶接口方面,我們額外引入了兩個流水線控制參數(shù),這樣業(yè)務(wù)可選擇均衡小批量帶來的系統(tǒng)調(diào)用開銷和性能提升:
1、batch_submit,一次性提交的 IO 任務(wù)數(shù)。默認等于 iodepth,即一次性提交任務(wù)。
2、iodepth_low,默認等于 1,流水線跑起來之后,IO 任務(wù)隊列中低于 iodepth - iodepth_low 個任務(wù)的時候,就開始后續(xù)任務(wù)的填充。
引用流水線后,查詢模式抽象見下圖。核心變化集中在: submit - 原本攢夠 iodepth 個才提交任務(wù),變成攢夠 batch_submit 個就提交任務(wù),這使得 IO 任務(wù)可以提前進入 wait 狀態(tài)。wait- 原本等完 iodepth 個任務(wù),變成等待 iodepth_low 個任務(wù)。schedule- 查詢 HashTable 也因此流水線起來,提升了整體的 IO 任務(wù)和 CPU 任務(wù)的并行空間(灰色區(qū)域)。
△流水線查詢模式
3.5流水線效果評測
評測環(huán)境
評測均采用單線程運行的進程,運行環(huán)境機型是 CPU INTEL Xeon Platinum 8350C 2.6GHZ ,L1d cache: 48K,L1i cache 32K,L2 cache:1280K,L3 cache:49152K,內(nèi)核是 64 位 5.10 系,編譯器是 GCC 8.2,編譯優(yōu)化選項是 -O2。
評測內(nèi)容
為了充分驗證流水線效果,我們評測了兩種讀盤場景:場景一、海量 KV,大量讀盤和 HashTable 查詢;場景二、超大 Value,大量讀盤,但極少量 HashTable 查詢。
場景一、海量KV
設(shè)置一次查詢 pv 會發(fā)起 1024 次 kv,其中 value 大小為 4K,基本對應(yīng)到 1024 次 HashTable 訪存查詢和 1024 個訪盤 IO 任務(wù)。設(shè)置 iodepth=512,iodepth_low=1,調(diào)整 batch_submit 為 512、256、128、64、32,觀察不同參數(shù)下,IO 任務(wù)的平響(io_us)、99 分位(io_us_99) ,評測數(shù)據(jù)見下。
△海量 KV 查詢耗時
場景二、超大Value
設(shè)置一次查詢 pv 會發(fā)起 20 個 kv 查詢,其中 value 大小為 1M,基本對應(yīng)到 20 次 HashTable 訪存查詢和 245*20=4900 個訪盤 IO 任務(wù)。設(shè)置 iodepth=512,iodepth_low=1,調(diào)整 batch_submit 為 512、256、128、64、32,觀察不同參數(shù)下,IO 任務(wù)的平響(io_us)、99 分位(io_us_99) ,評測數(shù)據(jù)見下。
△超大 Value 查詢耗時
評測結(jié)論
以 Libaio 評測數(shù)據(jù)為例。在海量 KV 場景下,batch_submit=512(iodepth) 時,沒有開啟流水線,IO 任務(wù)平響 4110us,batch_submit=128 時,是開啟流水線的最佳平響參數(shù),IO 任務(wù)平響 3373us,有 15%+ 的平響優(yōu)化。在超大 Value 場景下,batch_submit=512 (iodepth)時,沒有開啟流水線,IO 任務(wù)平響 11.5ms, batch_submit=64 時,是開啟流水線的最佳平響參數(shù),IO 任務(wù)平響 7.7ms,有 30%+ 的平響優(yōu)化。IoUring 和 Libaio 的評測效果趨勢一致。
04應(yīng)用場景
正如背景中所指出的,引入落地頁信號對于用戶體驗和總體收入都具有積極的影響。然而,在過去迫于鳳巢正排服務(wù)的內(nèi)存容量限制,粗排環(huán)節(jié)僅能使用 64 位的簽名 Sign 推導(dǎo)出歸一化 URLID,整條計算鏈路環(huán)節(jié)過多,帶來了一致性方面的問題。經(jīng)過最近一個季度的努力,通過在鳳巢正排服務(wù)中引入URL明文,得到了準(zhǔn)確的 URLID,我們顯著提高了體驗評估的 QLQ 準(zhǔn)確性,實驗組相較對照組提升了10.8pp,業(yè)務(wù)收入也得到了明顯增長。未來,我們還將把落地頁信號引入到更多的粗排 Q 中,進一步提升總體收入。
05相關(guān)工作
廣告基礎(chǔ)檢索系統(tǒng)的模塊,可被視為一種業(yè)務(wù)特化的內(nèi)存數(shù)據(jù)庫。我們觀察到,在內(nèi)存數(shù)據(jù)庫領(lǐng)域中出現(xiàn)了類似的發(fā)展趨勢:在上世紀 90 年代,隨著內(nèi)存成本的降低和容量的增加,內(nèi)存數(shù)據(jù)庫得到了發(fā)展。然而,隨著業(yè)務(wù)存儲量的不斷增加,內(nèi)存的限制逐漸顯現(xiàn)。進入 2010 年代,LargerThanMem 分支應(yīng)運而生[11,12,13],從歷屆論文看,該分支還比較學(xué)術(shù),主要研究兩個關(guān)鍵問題:
1、如何引入分層存儲,但又避免引入過多的 I/O 開銷,即研究熱/冷執(zhí)行路徑(Hot/Cold Execution Path)。
2、在分層存儲后,如何設(shè)計自適應(yīng)的冷熱數(shù)據(jù)淘汰和檢索策略。
問題 1 是系統(tǒng)設(shè)計的技術(shù)問題,而當(dāng)前的 SsdEngine 設(shè)計主要關(guān)注了這一問題,我們在緩存、調(diào)度和訪盤等方面都有明確的規(guī)劃和實現(xiàn)。在廣告檢索業(yè)務(wù)中,冷熱數(shù)據(jù)的分布特性明顯存在。當(dāng)前,我們只針對廣告庫的場景,通過商業(yè)廣告同步系統(tǒng)的旁路實現(xiàn),實現(xiàn)了業(yè)務(wù)分層。未來,在詞表場景中,我們還將探索問題 2 的解決方案。
長尾控制在某些特定生產(chǎn)環(huán)境中才會成為一個突出問題,我們可以將其視為 LargerThanMem 在廣告檢索中所特有的挑戰(zhàn)。如上所述,在混合部署的環(huán)境中,對單盤的 IOPS 進行控制是一個涉及多個層次的復(fù)雜任務(wù)。廣告基礎(chǔ)檢索服務(wù)的特點是寫少讀多且具備穩(wěn)定量化的局部性,單實例頻控 + 超時控制,已足夠控制讀長尾。但隨著 SsdEngine 進一步推廣應(yīng)用,包括單盤的 Adhoc 組網(wǎng)通信以及集群按照 IOPS 分配,也需要應(yīng)用起來。
審核編輯:湯梓紅
-
存儲
+關(guān)注
關(guān)注
13文章
4531瀏覽量
87438 -
內(nèi)存
+關(guān)注
關(guān)注
8文章
3123瀏覽量
75251 -
SSD
+關(guān)注
關(guān)注
21文章
2983瀏覽量
119574 -
文件系統(tǒng)
+關(guān)注
關(guān)注
0文章
296瀏覽量
20391 -
nvme
+關(guān)注
關(guān)注
0文章
251瀏覽量
23239
原文標(biāo)題:極致優(yōu)化SSD并行讀調(diào)度
文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
SSD之優(yōu)化篇
粒子群算法城鎮(zhèn)能源優(yōu)化調(diào)度問題
編譯器優(yōu)化的靜態(tài)調(diào)度介紹
基于MAPSO算法的水庫優(yōu)化調(diào)度與仿真
SCADA系統(tǒng)在供水優(yōu)化調(diào)度中的應(yīng)用
調(diào)度自動化系統(tǒng)在優(yōu)化電網(wǎng)調(diào)度中的應(yīng)用
城市軌道交通調(diào)度優(yōu)化

并行調(diào)度能耗優(yōu)化算法
目標(biāo)跟蹤算法的并行優(yōu)化

基于MES作業(yè)計劃與調(diào)度優(yōu)化

什么是指令調(diào)度(上)

什么是指令調(diào)度(下)

智能優(yōu)化算法總結(jié):數(shù)字孿生下的車間調(diào)度

評論