使用 Kafka 和 MongoDB 進行 Go 非同步處理

使用 Kafka 和 MongoDB 進行 Go 非同步處理

來自專欄 Linux15 人贊了文章

在我前面的博客文章 「我的第一個 Go 微服務:使用 MongoDB 和 Docker 多階段構建」 中,我創建了一個 Go 微服務示例,它發布一個 REST 式的 http 端點,並將從 HTTP POST 中接收到的數據保存到 MongoDB 資料庫。

在這個示例中,我將數據的保存和 MongoDB 分離,並創建另一個微服務去處理它。我還添加了 Kafka 為消息層服務,這樣微服務就可以非同步處理它自己關心的東西了。

如果你有時間去看,我將這個博客文章的整個過程錄製到 這個視頻中了 :)

下面是這個使用了兩個微服務的簡單的非同步處理示例的上層架構圖。

rest-kafka-mongo-microservice-draw-io

微服務 1 —— 是一個 REST 式微服務,它從一個 /POST http 調用中接收數據。接收到請求之後,它從 http 請求中檢索數據,並將它保存到 Kafka。保存之後,它通過 /POST 發送相同的數據去響應調用者。

微服務 2 —— 是一個訂閱了 Kafka 中的一個主題的微服務,微服務 1 的數據保存在該主題。一旦消息被微服務消費之後,它接著保存數據到 MongoDB 中。

在你繼續之前,我們需要能夠去運行這些微服務的幾件東西:

  1. 下載 Kafka —— 我使用的版本是 kafka_2.11-1.1.0
  2. 安裝 librdkafka —— 不幸的是,這個庫應該在目標系統中
  3. 安裝 Kafka Go 客戶端
  4. 運行 MongoDB。你可以去看我的 以前的文章 中關於這一塊的內容,那篇文章中我使用了一個 MongoDB docker 鏡像。

我們開始吧!

首先,啟動 Kafka,在你運行 Kafka 伺服器之前,你需要運行 Zookeeper。下面是示例:

$ cd /<download path>/kafka_2.11-1.1.0$ bin/zookeeper-server-start.sh config/zookeeper.properties

接著運行 Kafka —— 我使用 9092 埠連接到 Kafka。如果你需要改變埠,只需要在 config/server.properties 中配置即可。如果你像我一樣是個新手,我建議你現在還是使用默認埠。

$ bin/kafka-server-start.sh config/server.properties

Kafka 跑起來之後,我們需要 MongoDB。它很簡單,只需要使用這個 docker-compose.yml 即可。

version: 3services: mongodb: image: mongo ports: - "27017:27017" volumes: - "mongodata:/data/db" networks: - network1volumes: mongodata:networks: network1:

使用 Docker Compose 去運行 MongoDB docker 容器。

docker-compose up

這裡是微服務 1 的相關代碼。我只是修改了我前面的示例去保存到 Kafka 而不是 MongoDB:

rest-to-kafka/rest-kafka-sample.go

func jobsPostHandler(w http.ResponseWriter, r *http.Request) { //Retrieve body from http request b, err := ioutil.ReadAll(r.Body) defer r.Body.Close() if err != nil { panic(err) } //Save data into Job struct var _job Job err = json.Unmarshal(b, &_job) if err != nil { http.Error(w, err.Error(), 500) return } saveJobToKafka(_job) //Convert job struct into json jsonString, err := json.Marshal(_job) if err != nil { http.Error(w, err.Error(), 500) return } //Set content-type http header w.Header().Set("content-type", "application/json") //Send back data as response w.Write(jsonString)}func saveJobToKafka(job Job) { fmt.Println("save to kafka") jsonString, err := json.Marshal(job) jobString := string(jsonString) fmt.Print(jobString) p, err := kafka.NewProducer(&kafka.ConfigMap{"bootstrap.servers": "localhost:9092"}) if err != nil { panic(err) } // Produce messages to topic (asynchronously) topic := "jobs-topic1" for _, word := range []string{string(jobString)} { p.Produce(&kafka.Message{ TopicPartition: kafka.TopicPartition{Topic: &topic, Partition: kafka.PartitionAny}, Value: []byte(word), }, nil) }}

這裡是微服務 2 的代碼。在這個代碼中最重要的東西是從 Kafka 中消費數據,保存部分我已經在前面的博客文章中討論過了。這裡代碼的重點部分是從 Kafka 中消費數據:

kafka-to-mongo/kafka-mongo-sample.go

func main() { //Create MongoDB session session := initialiseMongo() mongoStore.session = session receiveFromKafka()}func receiveFromKafka() { fmt.Println("Start receiving from Kafka") c, err := kafka.NewConsumer(&kafka.ConfigMap{ "bootstrap.servers": "localhost:9092", "group.id": "group-id-1", "auto.offset.reset": "earliest", }) if err != nil { panic(err) } c.SubscribeTopics([]string{"jobs-topic1"}, nil) for { msg, err := c.ReadMessage(-1) if err == nil { fmt.Printf("Received from Kafka %s: %s
", msg.TopicPartition, string(msg.Value)) job := string(msg.Value) saveJobToMongo(job) } else { fmt.Printf("Consumer error: %v (%v)
", err, msg) break } } c.Close()}func saveJobToMongo(jobString string) { fmt.Println("Save to MongoDB") col := mongoStore.session.DB(database).C(collection) //Save data into Job struct var _job Job b := []byte(jobString) err := json.Unmarshal(b, &_job) if err != nil { panic(err) } //Insert job into MongoDB errMongo := col.Insert(_job) if errMongo != nil { panic(errMongo) } fmt.Printf("Saved to MongoDB : %s", jobString)}

我們來演示一下,運行微服務 1。確保 Kafka 已經運行了。

$ go run rest-kafka-sample.go

我使用 Postman 向微服務 1 發送數據。

這裡是日誌,你可以在微服務 1 中看到。當你看到這些的時候,說明已經接收到了來自 Postman 發送的數據,並且已經保存到了 Kafka。

因為我們尚未運行微服務 2,數據被微服務 1 只保存在了 Kafka。我們來消費它並通過運行的微服務 2 來將它保存到 MongoDB。

$ go run kafka-mongo-sample.go

現在,你將在微服務 2 上看到消費的數據,並將它保存到了 MongoDB。

檢查一下數據是否保存到了 MongoDB。如果有數據,我們成功了!

完整的源代碼可以在這裡找到:

github.com/donvito/lear

現在是廣告時間:如果你喜歡這篇文章,請在 Twitter @donvito 上關注我。我的 Twitter 上有關於 Docker、Kubernetes、GoLang、Cloud、DevOps、Agile 和 Startups 的內容。歡迎你們在 GitHub 和 LinkedIn 關注我。

開心地玩吧!


via: melvinvivas.com/develop

作者:Melvin Vivas 譯者:qhwdw 校對:wxy

本文由 LCTT 原創編譯,Linux中國 榮譽推出


推薦閱讀:

kafka-python基本使用
消息隊列中吞吐量和處理速度這兩個指標的困惑?
淺談分散式消息技術 Kafka
kafka 單機版安裝教程
閆燕飛:Kafka的高性能揭秘及優化

TAG:消息隊列 | MongoDB | Kafka |