Node.js 應用全鏈路追蹤技術——全鏈路資訊儲存
作者:vivo 網際網路前端團隊- Yang Kun
本文是上篇文章《Node.js 應用全鏈路追蹤技術——全鏈路資訊獲取》的後續。閱讀完,再來看本文,效果會更佳哦。
本文主要介紹在Node.js應用中, 如何用全鏈路資訊儲存技術把全鏈路追蹤資料儲存起來,並進行相應的展示,最終實現基於業界通用 OpenTracing 標準的 Zipkin 的 Node.js 方案。
一、背景
目前業界主流的做法是使用分散式鏈路跟蹤系統,其理論基礎是來自 Google 的一篇論文 《大規模分散式系統的跟蹤系統》。
論文如下圖所示:
(圖片來源:網路)
在此理論基礎上,誕生了很多優秀的實現,如 zipkin、jaeger 。同時為了保證 API 相容,他們都遵循 OpenTracing 標準。那 OpenTracing 標準是什麼呢?
OpenTracing 翻譯為開發分散式追蹤,是一個輕量級的標準化層,它位於應用程式/類庫和鏈路跟蹤系統之間的一層。 這一層可以用下圖表示:
從上圖可以知道, OpenTracing 具有以下優勢:
-
統一了 API ,使開發人員能夠方便的新增追蹤系統的實現。
-
OpenTracing 已進入 CNCF ,正在為全球的分散式鏈路跟蹤系統,提供統一的模型和資料標準。
大白話解釋下:它就像手機的介面標準,當今手機基本都是 typeC 介面,這樣方便各種手機能力的共用。因此,做全鏈路資訊儲存,需要按照業界公認的 OpenTracing 標準去實現。
本篇文章將通過已有的優秀實現 —— zipkin ,來給大家闡述 Node.js 應用如何對接分散式鏈路跟蹤系統。
二、zipkin
2.1 zipkin 是什麼?
zipkin 是 Twitter 基於 Google 的分散式追蹤系統論文的開發實現,其遵循 OpenTracing 標準。
zipkin 用於跟蹤分散式服務之間的應用資料鏈路。
2.2 zipkin 架構
官方文件上的架構如下圖所示:
為了更好的理解,我這邊對架構圖進行了簡化,簡化架構圖如下所示:
從上圖可以看到,分為三個部分:
第一部分:全鏈路資訊獲取,我們不使用 zipkin 自帶的全鏈路資訊獲取,我們使用 zone-context 去獲取全鏈路資訊
第二部分:傳輸層, 使用 zipkin 提供的傳輸 api ,將全鏈路資訊傳遞給 zipkin
第三部分: zipkin 核心功能,各個模組介紹如下:
-
collector 就是資訊收集器,作為一個守護程序,它會時刻等待客戶端傳遞過來的追蹤資料,對這些資料進行驗證、儲存以及建立查詢需要的索引。
-
storage 是儲存元件。zipkin 預設直接將資料存在記憶體中,此外支援使用 ElasticSearch 和 MySQL 。
-
search 是一個查詢程序,它提供了簡單的 JSON API 來供外部呼叫查詢。
-
web UI 是 zipkin 的服務端展示平臺,主要呼叫 search 提供的介面,用圖表將鏈路資訊清晰地展示給開發人員。
至此, zipkin 的整體架構就介紹完了,下面我們來進行 zipkin 的環境搭建。
2.3 zipkin 環境搭建
採用 docker 搭建, 這裡我們使用 docker 中的 docker-compose 來快速搭建 zipkin 環境。
docker-compose.yml 檔案內容如下:
version: '3.8'
services:
elasticsearch:
image: docker.elastic.co/elasticsearch/elasticsearch:7.5.0
container_name: elasticsearch
restart: always
ports:
- 9200:9200
healthcheck:
test: ["CMD-SHELL", "curl --silent --fail localhost:9200/_cluster/health || exit 1"]
interval: 30s
timeout: 10s
retries: 3
start_period: 40s
environment:
- discovery.type=single-node
- bootstrap.memory_lock=true
- "ES_JAVA_OPTS=-Xms512m -Xmx512m"
- TZ=Asia/Shanghai
ulimits:
memlock:
soft: -1
hard: -1
zipkin:
image: openzipkin/zipkin:2.21
container_name: zipkin
depends_on:
- elasticsearch
links:
- elasticsearch
restart: always
ports:
- 9411:9411
environment:
- TZ=Asia/Shanghai
- STORAGE_TYPE=elasticsearch
- ES_HOSTS=elasticsearch:9200
在上面檔案所在的目錄下執行 docker-compose up -d 即可完成本地搭建。
搭建完成後,在瀏覽器中開啟地址 http://localhost:9411 ,會看到如下圖所示頁面:
接著開啟地址 http://localhost:9200 ,會看到如下圖所示頁面:
至此, zipkin 的本地環境就搭建好啦。 下面我就將介紹 Node.js 應用如何對接 zipkin。
三、Node.js 接入 zipkin
3.1 搞定全鏈路資訊獲取
這個我在 《Node.js 應用全鏈路追蹤技術——全鏈路資訊獲取》 文章中,已經詳細闡述了,如何去獲取全鏈路資訊。
3.2 搞定傳輸層
因為 zipkin 是基於 OpenTracing 標準實現的。因此我們只要搞定了 zipkin 的傳輸層,也就搞定了其他主流分散式追蹤系統。
這裡我們用到了 zipkin 官方提供的兩個 npm 包,分別是:
-
zipkin
-
zipkin-transport-http
zipkin 包是官方對支援 Node.js 的核心包。 zipkin-transport-http 包的作用是將資料通過 HTTP 非同步傳送到 zipkin 。
下面我們將詳細介紹在傳輸層,如何將將資料傳送到 zipkin 。
3.3 傳輸層基礎封裝
核心程式碼實現和相關注釋如下:
const {
BatchRecorder,
Tracer,
// ExplicitContext,
jsonEncoder: { JSON_V1, JSON_V2 },
} = require('zipkin')
const { HttpLogger } = require('zipkin-transport-http')
// const ctxImpl = new ExplicitContext();
// 配置物件
const options = {
serviceName: 'zipkin-node-service',
targetServer: '127.0.0.1:9411',
targetApi: '/api/v2/spans',
jsonEncoder: 'v2'
}
// http 方式傳輸
async function recorder ({ targetServer, targetApi, jsonEncoder }) => new BatchRecorder({
logger: new HttpLogger({
endpoint: `${targetServer}${targetApi}`,
jsonEncoder: (jsonEncoder === 'v2' || jsonEncoder === 'V2') ? JSON_V2 : JSON_V1,
})
})
// 基礎記錄
const baseRecorder = await recorder({
targetServer: options.targetServer
targetApi: options.targetApi
jsonEncoder: options.jsonEncoder
})
至此,傳輸層的基礎封裝就完成了,我們抽離了 baseRecorder 出來,下面將會把全鏈路資訊接入到傳輸層中。
3.4 接入全鏈路資訊
這裡說下官方提供的接入 SDK ,程式碼如下:
const { Tracer } = require('zipkin')
const ctxImpl = new ExplicitContext()
const tracer = new Tracer({ ctxImpl, recorder: baseRecorder })
// 還要處理請求頭、手動層層傳遞等事情
上面的方式缺點比較明顯,需要額外去傳遞一些東西,這裡我們使用上篇文章提到的 Zone-Context , 程式碼如下:
const zoneContextImpl = new ZoneContext()
const tracer = new Tracer({ zoneContextImpl, recorder: baseRecorder })
// 僅此而已,不再做額外處理
對比兩者,明顯發現, Zone-Context 的實現方式更加的隱式,對程式碼入侵更小。這也是單獨花一篇文章介紹 Zone-Context 技術原理的價值體現。
自此,我們完成了傳輸層的適配, Node.js 應用接入 zipkin 的核心步驟基本完成。
3.5 搞定 zipkin 收集、儲存、展示
這部分中的收集、展示功能, zipkin 官方自帶完整實現,無需進行二次開發。儲存這塊,提供了 MySQL 、 Elasticsearch 等接入方式。可以根據實際情況去做相應的接入。本文采用 docker-compose 集成了 ElasticSearch 。
四、總結
自此,我們已經完成基於業界通用 OpenTracing 標準實現的 zipkin 的 Node.js 方案。希望大家看完這兩篇文章,對 Node.js 全鏈路追蹤,有一個整體而清晰的認識。
參考資料:
- 循序漸進講解負載均衡vivoGateway(VGW)
- Tars-Java網路程式設計原始碼分析
- vivo 短視訊使用者訪問體驗優化實踐
- 100 行 shell 寫個 Docker
- vivo全球商城:庫存系統架構設計與實踐
- 非侵入式入侵 —— Web快取汙染與請求走私
- 解密遊戲推薦系統的建設之路
- 解密遊戲推薦系統的建設之路
- 使用者行為分析模型實踐(三)——H5通用分析模型
- vivo版本釋出平臺:頻寬智慧調控優化實踐-平臺產品系列03
- 廣告流量反作弊風控中的模型應用
- vivo官網App模組化開發方案-ModularDevTool
- OKR之劍·實戰篇05:OKR致勝法寶-氛圍&業績雙輪驅動(上)
- vivo 自研Jenkins資源排程系統設計與實踐
- vivo官網App模組化開發方案-ModularDevTool
- Dubbo 中 Zookeeper 註冊中心原理分析
- 使用者行為分析模型實踐(三)——H5通用分析模型
- Node.js 應用全鏈路追蹤技術——全鏈路資訊儲存
- 從0到1設計通用資料大屏搭建平臺
- vivo 超大規模訊息中介軟體實踐之路