女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

利用KoP如何將Pulsar數據快速且無縫接入Apache Doris

電子工程師 ? 來源:OSC開源社區 ? 作者:OSC開源社區 ? 2022-08-08 15:13 ? 次閱讀

KoP 架構介紹

KoP 是 Kafka on Pulsar 的簡寫,顧名思義就是如何在 Pulsar 上實現對 Kafka 數據的讀寫。KoP 將 Kafka 協議處理插件引入 Pulsar Broker 來實現 Apache Pulsar 對 Apache Kafka 協議的支持。將 KoP 協議處理插件添加到現有 Pulsar 集群后,用戶不用修改代碼就可以將現有的 Kafka 應用程序和服務遷移到 Pulsar。

Apache Pulsar 主要特點如下:

利用企業級多租戶特性簡化運營。

避免數據搬遷,簡化操作。

利用 Apache BookKeeper 和分層存儲持久保留事件流。

利用 Pulsar Functions 進行無服務器化事件處理。

KoP 架構如下圖,通過圖可以看到 KoP 引入一個新的協議處理插件,該協議處理插件利用 Pulsar 的現有組件(例如 Topic 發現、分布式日志庫-ManagedLedger、cursor 等)來實現 Kafka 傳輸協議。

Routine Load 訂閱 Pulsar 數據思路

Apache Doris Routine Load 支持了將 Kafka 數據接入 Apache Doris,并保障了數據接入過程中的事務性操作。Apache Pulsar 定位為一個云原生時代企業級的消息發布和訂閱系統,已經在很多線上服務使用。那么 Apache Pulsar 用戶如何將數據接入 Apache Doris 呢,答案是通過 KoP 實現。

由于 KoP 直接在 Pulsar 側提供了對 Kafka 的兼容,那么對于 Apache Doris 來說可以像使用 Kafka 一樣使用 Plusar。整個過程對于 Apache Doris 來說無需任務改變,就能將 Pulsar 數據接入 Apache Doris,并且可以獲得 Routine Load 的事務性保障。

--------------------------

| Apache Doris |

| --------------- |

| | Routine Load | |

| --------------- |

--------------------------

|Kafka Protocol(librdkafka)

------------v--------------

| --------------- |

| | KoP | |

| --------------- |

| Apache Pulsar |

--------------------------

操作實踐

Pulsar Standalone 安裝環境準備:

JDK 安裝:略

下載 Pulsar 二進制包,并解壓:

#下載

wget https://archive.apache.org/dist/pulsar/pulsar-2.10.0/apache-pulsar-2.10.0-bin.tar.gz

#解壓并進入安裝目錄

tar xvfz apache-pulsar-2.10.0-bin.tar.gz

cd apache-pulsar-2.10.0

組件編譯和安裝

1. 下載 KoP 源碼

git clone https://github.com/streamnative/kop.git

cd kop

2. 編譯 KoP 項目

mvn clean install -DskipTests

3. protocols 配置:在解壓后的 apache-pulsar 目錄下創建 protocols文 件夾,并把編譯好的 nar 包復制到 protocols 文件夾中。

mkdir apache-pulsar-2.10.0/protocols

# mv kop/kafka-impl/target/pulsar-protocol-handler-kafka-{{protocol:version}}.nar apache-pulsar-2.10.0/protocols

cp kop/kafka-impl/target/pulsar-protocol-handler-kafka-2.11.0-SNAPSHOT.nar apache-pulsar-2.10.0/protocols

4. 添加后的結果查看

[root@17a5da45700b apache-pulsar-2.10.0]# ls protocols/

pulsar-protocol-handler-kafka-2.11.0-SNAPSHOT.nar

KoP 配置添加

1. 在 standalone.conf 或者 broker.conf 添加如下配置

#kop適配的協議

messagingProtocols=kafka

#kop 的NAR文件路徑

protocolHandlerDirectory=。/protocols

#是否允許自動創建topic

allowAutoTopicCreationType=partitioned

2. 添加如下服務監聽配置

# Use `kafkaListeners` here for KoP 2.8.0 because `listeners` is marked as deprecated from KoP 2.8.0

kafkaListeners=PLAINTEXT://127.0.0.1:9092# This config is not required unless you want to expose another address to the Kafka client.

# If it’s not configured, it will be the same with `kafkaListeners` config by default

kafkaAdvertisedListeners=PLAINTEXT://127.0.0.1:9092

brokerEntryMetadataInterceptors=org.apache.pulsar.common.intercept.AppendIndexMetadataInterceptor

brokerDeleteInactiveTopicsEnabled=false

當出現如下錯誤:

java.lang.IllegalArgumentException: Broker has disabled transaction coordinator, please enable it before using transaction.

添加如下配置,開啟 transactionCoordinatorEnabled

kafkaTransactionCoordinatorEnabled=true

transactionCoordinatorEnabled=true

Pulsar 啟動

#前臺啟動

#bin/pulsar standalone

#后臺啟動

pulsar-daemon start standalone

創建 Doris 數據庫和建表

#進入Doris

mysql -u root -h 127.0.0.1 -P 9030

# 創建數據庫

create database pulsar_doris;

#切換數據庫

use pulsar_doris;

#創建clicklog表

CREATE TABLE IF NOT EXISTS pulsar_doris.clicklog

`clickTime` DATETIME NOT NULL COMMENT “點擊時間”,

`type` String NOT NULL COMMENT “點擊類型”,

`id` VARCHAR(100) COMMENT “唯一id”,

`user` VARCHAR(100) COMMENT “用戶名稱”,

`city` VARCHAR(50) COMMENT “所在城市”

DUPLICATE KEY(`clickTime`, `type`)

DISTRIBUTED BY HASH(`type`) BUCKETS 1

PROPERTIES (

“replication_allocation” = “tag.location.default: 1”

);

創建 Routine Load 任務

CREATE ROUTINE LOAD pulsar_doris.load_from_pulsar_test ON clicklog

COLUMNS(clickTime,id,type,user)

PROPERTIES

“desired_concurrent_number”=“3”,

“max_batch_interval” = “20”,

“max_batch_rows” = “300000”,

“max_batch_size” = “209715200”,

“strict_mode” = “false”,

“format” = “json”

FROM KAFKA

“kafka_broker_list” = “127.0.0.1:9092”,

“kafka_topic” = “test”,

“property.group.id” = “doris”

);

上述命令中的參數解釋如下:

pulsar_doris :Routine Load 任務所在的數據庫

load_from_pulsar_test:Routine Load 任務名稱

clicklog:Routine Load 任務的目標表,也就是配置 Routine Load 任務將數據導入到 Doris 哪個表中。

strict_mode:導入是否為嚴格模式,這里設置為 False。

format:導入數據的類型,這里配置為 Json。

kafka_broker_list:Kafka Broker 服務的地址

kafka_broker_list:Kafka Topic 名稱,也就是同步哪個 Topic 上的數據。

property.group.id:消費組 ID

數據導入和測試

1. 數據導入 構造一個 ClickLog 的數據結構,并調用 Kafka 的 Producer 發送 5000 萬條數據到 Pulsar。 ClickLog 數據結構如下:

public class ClickLog {

private String id;

private String user;

private String city;

private String clickTime;

private String type;

。.. //省略getter和setter

}

消息構造和發送的核心代碼邏輯如下:

String strDateFormat = “yyyy-MM-dd HHss”;

@Autowired

private Producer producer;

try {

for(int j =0 ; j《50000;j++){

int batchSize = 1000;

for(int i = 0 ; i《batchSize ;i++){

ClickLog clickLog = new ClickLog();

clickLog.setId(UUID.randomUUID().toString());

SimpleDateFormat simpleDateFormat = new SimpleDateFormat(strDateFormat);

clickLog.setClickTime(simpleDateFormat.format(new Date()));

clickLog.setType(“webset”);

clickLog.setUser(“user”+ new Random().nextInt(1000) +i);

producer.sendMessage(Constant.topicName, JSONObject.toJSONString(clickLog));

}

}

} catch (Exception e) {

e.printStackTrace();

}

2. ROUTINE LOAD 任務查看執行 SHOW ALL ROUTINE LOAD FOR load_from_pulsar_test G;命令,查看導入任務的狀態。

mysql》 SHOW ALL ROUTINE LOAD FOR load_from_pulsar_test G;

*************************** 1. row ***************************

Id: 87873

Name: load_from_pulsar_test

CreateTime: 2022-05-31 1234

PauseTime: NULL

EndTime: NULL

DbName: default_cluster:pulsar_doris

TableName: clicklog1

State: RUNNING

DataSourceType: KAFKA

CurrentTaskNum: 1

JobProperties: {“partitions”:“*”,“columnToColumnExpr”:“clickTime,id,type,user”,“maxBatchIntervalS”:“20”,“whereExpr”:“*”,“dataFormat”:“json”,“timezone”:“Europe/London”,“send_batch_parallelism”:“1”,“precedingFilter”:“*”,“mergeType”:“APPEND”,“format”:“json”,“json_root”:“”,“maxBatchSizeBytes”:“209715200”,“exec_mem_limit”:“2147483648”,“strict_mode”:“false”,“jsonpaths”:“”,“deleteCondition”:“*”,“desireTaskConcurrentNum”:“3”,“maxErrorNum”:“0”,“strip_outer_array”:“false”,“currentTaskConcurrentNum”:“1”,“execMemLimit”:“2147483648”,“num_as_string”:“false”,“fuzzy_parse”:“false”,“maxBatchRows”:“300000”}

DataSourceProperties: {“topic”:“test”,“currentKafkaPartitions”:“0”,“brokerList”:“127.0.0.1:9092”}

CustomProperties: {“group.id”:“doris”,“kafka_default_offsets”:“OFFSET_END”,“client.id”:“doris.client”}

Statistic: {“receivedBytes”:5739001913,“runningTxns”:[],“errorRows”:0,“committedTaskNum”:168,“loadedRows”:50000000,“loadRowsRate”:23000,“abortedTaskNum”:1,“errorRowsAfterResumed”:0,“totalRows”:50000000,“unselectedRows”:0,“receivedBytesRate”:2675000,“taskExecuteTimeMs”:2144799}

Progress: {“0”:“51139566”}

Lag: {“0”:0}

ReasonOfStateChanged:

ErrorLogUrls:

OtherMsg:

1 row in set (0.00 sec)

ERROR:

No query specified

從上面結果可以看到 totalRows 為 50000000,errorRows 為 0。說明數據不丟不重的導入 Apache Doris 了。

3. 數據統計驗證執行如下命令統計表中的數據,發現統計的結果也是 50000000,符合預期。

mysql》 select count(*) from clicklog;

+----------+

| count(*) |

+----------+

| 50000000 |

+----------+

1 row in set (3.73 sec)

mysql》

通過 KoP 我們實現了將 Apache Pulsar 數據無縫接入 Apache Doris ,無需對 Routine Load 任務進行任何修改,并保障了數據導入過程中的事務性。與此同時,Apache Doris 社區已經啟動了 Apache Pulsar 原生導入支持的設計,相信在不久后就可以直接訂閱 Pulsar 中的消息數據,并保證數據導入過程中的 Exactly-Once 語義。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 服務器
    +關注

    關注

    13

    文章

    9702

    瀏覽量

    87317
  • 代碼
    +關注

    關注

    30

    文章

    4887

    瀏覽量

    70271

原文標題:如何將Pulsar數據快速且無縫接入Apache Doris

文章出處:【微信號:OSC開源社區,微信公眾號:OSC開源社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    用MCP百度地圖能力輕松接入DeepSeek

    如何將百度地圖的能力接入DeepSeek。本文詳細介紹通過MCP百度地圖的能力接入DeepSeek,為用戶提供精準的智能規劃服務。 一
    的頭像 發表于 03-31 11:05 ?514次閱讀
    用MCP<b class='flag-5'>將</b>百度地圖能力輕松<b class='flag-5'>接入</b>DeepSeek

    如何將Linux安裝包快速轉成玲瓏包

    本篇將以 motrix 為例為大家展示如何將 Linux 安裝包快速轉成玲瓏包。
    的頭像 發表于 03-12 16:01 ?417次閱讀
    <b class='flag-5'>如何將</b>Linux安裝包<b class='flag-5'>快速</b>轉成玲瓏包

    如何將項目從IAR遷移到Embedded Studio

    本文描述如何將IAR EWARM項目遷移到SEGGER Embedded Studio(簡稱SES)中。
    的頭像 發表于 02-25 17:11 ?479次閱讀
    <b class='flag-5'>如何將</b>項目從IAR遷移到Embedded Studio

    如何在DevEco Studio中利用CodeGPT接入DeepSeek

    近期DeepSeek火爆全球,那一樣很火的開發鴻蒙原生應用的DevEco Studio如果把它接入,會發生什么“化學反應”呢?下面我們詳細分享如何在DevEco Studio中利用CodeGPT
    的頭像 發表于 02-19 13:52 ?881次閱讀
    如何在DevEco Studio中<b class='flag-5'>利用</b>CodeGPT<b class='flag-5'>接入</b>DeepSeek

    請問ccs4.2如何將采集到的數據導出成dat文件?

    ccs4.2如何將采集到的數據導出成dat文件
    發表于 01-14 08:08

    EE-191:利用SHARC DSP SPORTs實現無縫UART

    電子發燒友網站提供《EE-191:利用SHARC DSP SPORTs實現無縫UART.pdf》資料免費下載
    發表于 01-06 14:40 ?0次下載
    EE-191:<b class='flag-5'>利用</b>SHARC DSP SPORTs實現<b class='flag-5'>無縫</b>UART

    請問如何將單端輸出運放和真差分ADC連接?

    接到19位以上的精密ADC上(ADC已選定)。問題是:高精密高位數的ADC都是真差分輸入,而偏置和失調性能好的運放都是單端輸出。那么如何將運放的單端輸出和真差分輸入的ADC連接起來呢? 1. 如果我
    發表于 12-06 08:33

    工業智能網關快速接入移動OneNET平臺配置操作

    新基建。 在實際應用中,很多用戶都需要將生產設備數據對接到移動OneNET平臺中,享受便捷快速的配置操作體驗,同時也不需要付出購買運維硬件的成本精力,快速實現工業物聯網場景應用。以下介紹通過物通博聯工業智能網關
    的頭像 發表于 11-06 17:24 ?830次閱讀
    工業智能網關<b class='flag-5'>快速</b><b class='flag-5'>接入</b>移動OneNET平臺配置操作

    使用stm32f767tlv320adc3140配置為tdm工作模式,如何將每個通道數據單獨提出出來進而播放呢?

    使用stm32f767tlv320adc3140配置為tdm工作模式,采集到了四通道差分輸入的音頻數據如何將每個通道數據單獨提出出來進而播放呢?
    發表于 10-09 07:47

    如何將LVDS/OLDI橋接到HDMI/DVI

    電子發燒友網站提供《如何將LVDS/OLDI橋接到HDMI/DVI.pdf》資料免費下載
    發表于 09-27 09:35 ?5次下載
    <b class='flag-5'>如何將</b>LVDS/OLDI橋接到HDMI/DVI

    啟明信息完成國產化Doris數據庫升級替代任務

    近日,隨著集團公司監控平臺(Elasticsearch集群)的下線,標志著啟明信息正式完成國產化Doris數據庫升級替代任務。該項目既標志著啟明信息信創升級替代邁入新臺階,同時也標志著在Doris應用領域取得自主研發新進展。
    的頭像 發表于 09-20 09:33 ?1863次閱讀

    如何將BQ35100配置為EOS模式

    電子發燒友網站提供《如何將BQ35100配置為EOS模式.pdf》資料免費下載
    發表于 09-11 10:03 ?0次下載
    <b class='flag-5'>如何將</b>BQ35100配置為EOS模式

    TINA如何將函數信號發生器產生的信號接入到電路中?

    本人大學新手,競賽需要,對于TINA不是很會使用。打開函數信號發生器,點擊矩形波圖標,自動跳回DC,而且不會怎么產生的信號接入到待測試電路中。謝謝
    發表于 08-12 06:16

    鋇錸Modbus轉BACnet IP網關如何接入BA系統?

    了關鍵設備!本文詳細介紹如何將Modbus轉BACnet/IP網關接入BA系統,確保數據無縫集成和高效管理。 一、B
    的頭像 發表于 07-22 16:38 ?700次閱讀
    鋇錸Modbus轉BACnet IP網關如何<b class='flag-5'>接入</b>BA系統?

    涂鴉Pulsar云消息接入技巧+省錢攻略

    月末了,相信大家都會有信用卡額度超支的擔憂,生怕一不留神就會超出預算,并且事后還需要仔細核對消費情況。類似的焦慮,也會出現在使用涂鴉Pulsar云消息服務時。雖然涂鴉Pulsar云消息能滿足開發者
    的頭像 發表于 06-28 08:15 ?692次閱讀
    涂鴉<b class='flag-5'>Pulsar</b>云消息<b class='flag-5'>接入</b>技巧+省錢攻略