中金 | AI十年展望(三):AI視角下的自動駕駛行業全解析

語言: CN / TW / HK

自動駕駛是AI落地的重要場景之一,2012年之後深度學習技術快速發展帶動自動駕駛技術迅速進步,近年來Transformer大模型等技術進一步提升了自動駕駛演算法能力,2022年開始落地的大算力晶片及車廠自建AIDC的趨勢也為大模型提供了底層支援,我們看好中長期自動駕駛行業的發展,在資料端具備優勢的廠商有望率先實現突破。

深度學習是自動駕駛技術發展的分水嶺,近年來Transformer大模型是重要產業趨勢,演算法是各大廠商大力佈局的核心能力。 深度學習作為“軟體2.0”,是自動駕駛發展的核心驅動力,在感知層面大幅提高影象識別準確率,在決策層面深度強化學習有效提升演算法能力。我們認為未來深度強化學習與傳統專家規則將會廣泛共存。以Transformer為代表的大模型由於在海量資料預訓練、魯棒性、泛化能力方面較CNN優勢明顯而成為主流路線,其出現也使得掌握資料優勢的企業能形成高效的資料閉環,有望為自動駕駛演算法帶來顛覆性突破。

資料是決定量產能力的勝負手。 深度學習是資料驅動的AI,需要海量資料“餵養”。資料獲取依賴車載感測器:特斯拉堅持選擇視覺攝像頭主導的感測器方案,完成資料閉環,構建深厚壁壘;其他廠商選擇鐳射雷達、攝像頭等多感測器融合方案,鐳射雷達降價速度是行業發展關鍵,我們認為未來鐳射雷達作為安全冗餘具有現實需求。此外,資料量是兩類方案競爭的核心要素,資料標註的自動化水平、標註質量和效率是關鍵競爭點。

算力現階段決定自動駕駛技術上限,巨頭紛紛先行佈局。 高階自動駕駛中算力先行於演算法,目前自動駕駛AI晶片呈以英偉達為主導的“一超多強”格局,特斯拉引領域控制器架構變革,催化晶片廠商格局變化與量產程序,2022是自動駕駛大算力晶片開啟的元年。我們預計未來晶片競爭中大算力與能效比為首要競爭要素,開放性生態的重要性日趨提升。雲端層面,AIDC提供處理大量回傳資料所需的大算力,對於訓練大模型至關重要,特斯拉等巨頭在技術和資金方面具備天然優勢。類似自有電商業務需求孕育了亞馬遜、阿里巴巴等CPU時代雲端計算巨頭,我們認為自動駕駛等AI巨頭具備GPU/ASIC雲端計算市場的天然先發優勢。

風險

技術進步不及預期、行業競爭加劇、政策風險。

圖表:全文章節結構框架

資料來源:中金公司研究部

演算法:深度學習為自動駕駛發展分水嶺,大模型是重要趨勢

深度學習是自動駕駛技術發展的分水嶺及底層推動力

自動駕駛演算法架構:感知、決策、執行

演算法對於自動駕駛的效果至關重要。 自動駕駛作為人工智慧技術重要應用場景之一,其技術體系由演算法、算力、資料三部分構成,其中演算法的有效性影響自動駕駛的每一個環節,從感知環節的特徵提取到神經網路的決策,都需要依賴演算法改進來提高障礙物檢測準確性和複雜場景下的決策能力。 典型的自動駕駛技術架構包括感知(定位)、決策、執行三部分:

►      感知是自動駕駛車輛的“眼睛”, 通過各類感測器對行駛路徑進行識別,定位和追蹤車輛周圍物體以獲取車輛環境資訊,並融合、處理環境資訊及車內資訊。用於自動駕駛感知的感測器主要包括鐳射雷達、毫米波雷達、超聲波雷達及視覺感測器,其中視覺感測器又包括單目和多目彩色攝像頭。

►      決策是自動駕駛車輛的“大腦”, 對道路拓撲結構資訊、實時交通訊息、交通參與者資訊和車輛自身狀態等感知資料進行進一步分析,做出決策和預測後給出車輛控制策略併發出相應指令,決策系統主要包括車輛行為決策模組及軌跡規劃模組。

►      執行是自動駕駛車輛的“手腳”。 接收決策系統給出的指令,通過車輛穩定系統ESC、線控制動eBooster、線控轉向EPS等執行機構精確地控制加速程度、制動程度、轉向幅度、燈光控制等駕駛動作。

圖表:典型自動駕駛技術架構:感知、決策、執行

資料來源:《自動駕駛技術概論》(王建、徐國豔、陳競凱、馮宗寶,2019),中金公司研究部

深度學習驅動自動駕駛技術進入加速發展期

自動駕駛技術的發展分為三個階段,1970年代興起於自科研機構,2000年科技巨頭入局,但發展程序較緩。2012年以Hindon在ImageNet大賽中引入深度學習演算法為節點,深度學習進入蓬勃發展期。隨後自動駕駛作為AI的重要落地應用之一,進入高速發展快車道。

圖表:自動駕駛與人工智慧發展歷程對比

資料來源:CSDN,中金公司研究部

深度學習是自動駕駛技術發展的核心驅動力,2012年為深度學習元年。 2012年深度學習率先在影象識別領域產生標誌性突破,由Geoffrey Hinton課題組通過其構建的深度神經網路AlexNet成功將圖片識別錯誤率降低了10.8pcts,引起了全球業界的高度關注,隨後幾年深度學習產業飛速發展,2015年斯坦福人工智慧實驗室主任李飛飛團隊在ImageNet開放資料集上識別準確率首次達到人類水平,也使得相關領域大規模的商業化落地成為可能。

自動駕駛在深度神經網路演算法出現後開啟了加速式發展。 目標檢測及影象識別作為自動駕駛的關鍵技術,高度受益於深度學習演算法的突破,成為人工智慧演算法率先落地的場景之一。 特斯拉人工智慧總監Andrej Karparthy認為深度學習為代表技術是軟體2.0,即以神經網路訓練的形式編寫的程式碼軟體,而軟體1.0則是由人類編寫的邏輯程式碼的傳統方式。 以特斯拉為例,其自動駕駛深度學習網路HydraNet包含48個神經網路,能夠同時檢測1,000種物體,並正在越來越多地使用以神經網路訓練的形式編寫的程式碼軟體2.0代替人類編寫的邏輯程式碼軟體1.0,來構建其自動駕駛策略。

圖表:特斯拉FSD自動駕駛系統深度學習程式碼比例不斷提升

資料來源:特斯拉AI day,中金公司研究部整理

感知演算法:在過去10年充分受益於深度學習帶來的效能紅利,高速發展。 感知模組是目前自動駕駛中深度學習應用最廣泛的模組,深度學習擁有多層非線性神經網路結構,能夠將低層特徵變換成更為抽象的高層特徵,並以無監督或有監督的方法對輸入特徵進行變換,從而提升了分類或預測的準確性。尤其在計算機視覺感知領域,深度學習能夠提取出擁有自適應特性的高層特徵,有效適應待識別目標的外觀變化,模型魯棒性和泛化能力得到大幅提高。

決策演算法:深度學習與強化學習結合蘊含巨大想象空間,賦能決策演算法。 傳統強化學習在感知與求解能力瓶頸明顯,無法對大規模輸入進行抽象表徵,有效求解策略的能力不足,因此應用場景較為受限。隨著綜合高維資料抽象感知能力的深度強化學習演算法(Deep Reinforcement Learning,DRL)興起,2013年人工智慧研究團隊DeepMind提出深度Q網路(Deep Q Network,DQN)和蒙特卡洛樹搜尋演算法。基於該演算法的圍棋程式,“AlphaGo”以4:1戰勝世界冠軍李世石。近年來,深度強化學習在自動駕駛中的車道保持、超車決策、主動制動、交通流排程等多場景落地應用,並不斷拓展其範圍邊界。

Transformer等大模型是人工智慧產業的重要趨勢

大模型是人工智慧產業的重要發展方向。 由於人工智慧的細分場景和細分應用過多,傳統開發模式下針對每一個特定場景都定製一套全新演算法,行業開發工作冗餘、效率低且成本高。大規模預訓練模型能夠解決以上痛點,成為重要發展趨勢,在谷歌、特斯拉等國際巨頭中形成共識,即先使用海量資料預訓練大模型,得到一套模型引數,然後用這套引數對模型進行初始化,再進行訓練;在特定領域落地時,通過大模型蒸餾出小模型,大幅降低對新場景中資料量的需求,使得模型小樣本學習能力和泛化能力大幅提升。從業界大模型引數量來看,目前全球多家人工智慧實驗室和巨頭均在持續提升大模型的規模。

大模型提高AI模型的智慧程度,提升了AI模型的通用性。 根據OpenAI的研究人員對GPT-3的計算能力測試,在十項計算能力測試中,小模型的效能明顯差於大模型,即使是130億引數的模型處理二位數加減法的準確率也只有50%左右,處理其他運算的準確率還不到10%,遠低於1,750億的GPT-3完整版模型。此外,通過壓縮大模型批量化生產小模型的方式能生產大量的、覆蓋不同場景的模型,無需針對每個場景都單獨定製生產,提高各個行業的AI模型生產效率。

圖表:近年來國內外主要AI巨模型

資料來源:OpenAI,英偉達,谷歌,微軟,浪潮人工智慧研究院,北京智源人工智慧研究院,阿里達摩院,中金公司研究部

圖表:不同引數量GPT -3模型的十項計算任務準確率

資料來源:OpenAI,中金公司研究部

以Transformer為代表的大模型是自動駕駛演算法的重要發展方向。 Transformer最早由谷歌在2017年提出,主要被用於機器翻譯的神經網路模型。Transformer通過一維卷積和注意力機制的設計,實現了出色的演算法並行性,適合CPU的執行環境,因此迅速在自然語言處理(NLP)領域流行起來。目前Transformer模型幾乎取代了基於RNN的演算法在NLP中的地位,並逐漸被引入計算機視覺(CV)領域。特斯拉和毫末智行已經宣佈將Transformer引入自動駕駛系統中,來實現自動駕駛系統感知智慧和認知智慧的大幅優化。

Transformer具備強大的序列建模能力、全域性資訊感知能力,在大規模資料訓練、魯棒性、泛化能力等方面表現突出,因而在自動駕駛領域較傳統CNN優勢明顯。 Transformer使用多頭注意力機制,能夠理解不同區域語義元素之間的關係。Transformer早期主要被用於NLP,由於其超強的序列建模能力和全域性資訊感知能力,它幾乎取代了基於RNN的演算法在NLP中的地位,近年來逐漸被引入到CV領域。

由於Transformer可以很好地在空間-時序維度上進行建模,且在多模態融合方面具備較大優勢,目前特斯拉和毫末智行等行業龍頭通過Transformer在感知端提升模型效果。 特斯拉從安裝在汽車周圍的八個攝像頭的影片中用傳統的ResNet提取影象特徵,並使用Transformer、CNN、3D 卷積中的一種或者多種組合完成跨時間的影象融合,實現基於2D影象形成具有3D資訊輸出。毫末智行的AI團隊正在逐步將基於Transformer的感知演算法應用到實際的道路感知問題,如車道線檢測、障礙物檢測、可行駛區域分割、紅綠燈檢測&識別、道路交通標誌檢測、點雲檢測&分割等。

圖表:特斯拉利用Transformer實現多攝像頭資料融合

資料來源:特斯拉 AI day,中金公司研究部

除感知環節外,Transformer同樣有望在決策規劃等環節提升模型效果。 Transformer不僅能處理各類視覺檢測任務(車輛檢測、車道線檢測、交通標誌檢測、紅綠燈檢測等)、各類分割任務(可行駛區域檢測、全景分析等)和3D點雲的檢測和分割(障礙物的檢測等)任務,也有潛力提升後續的規劃和控制的相關技術。我們認為,Transformer技術的進一步應用,有望為自動駕駛的各類演算法落地帶來成倍的效率提升,並快速提升各項視覺效能指標。

Transformer為代表的大模型能充分發揮大資料價值,特斯拉、毫末等具備資料優勢的企業均選擇大模型路線。 我們認為,在自動駕駛逐漸從L2級輔助駕駛向全自動駕駛進步的過程中,用於訓練的資料量是關鍵,擁有資料多的公司更容易在模型迭代過程中領先,Transformer的出現使得掌握資料的企業能形成高效的資料閉環,使用大量資料持續升級其大模型。目前特斯拉擁有200萬輛級的量產車,根據毫末智行官方網站,其輔助駕駛系統HWA預計未來3年內有望搭載100萬輛長城汽車。百萬級的搭載量意味著每年數百億級里程,有望為自動駕駛演算法帶來顛覆性突破。

感知演算法:多感測器資料融合+定位,實現車輛環境感知

感知演算法實現類同人眼視覺的部分功能。 感知演算法利用感測器收集環境資料,完成行駛路徑識別及周邊物體識別的任務。具體而言,感知演算法需要對道路交通標誌標線、交通設施以及車輛、行人、地面其他物體進行識別和辨認。常用自動駕駛車輛感知器主要包括超聲波雷達、毫米波雷達、鐳射雷達、視覺感測器等,不同感測器的感知效能及適用情形存在差異。超聲波雷達適用於短距離測距,毫米波雷達用於測距及速度,鐳射雷達適合於為環境3D建模收集資料,視覺感測器則對行人、交通標誌標線等細節有更強的感知能力。

多感測器融合是感知系統的主流發展方向。 多感測器方案融合使用攝像頭及毫米波雷達乃至鐳射雷達。視覺攝像頭能夠提升系統的細節感知及推理能力,例如通過分析攝像頭提取行人的面部表情、身體方向及運動姿態,預判行人的潛在意圖。與此同時,雷達感測器能夠彌補攝像頭在作用距離、測距精度及特殊場景下的效能劣勢,實現高精度探測。根據特斯拉CEO馬斯克,特斯拉堅持使用視覺主導的方案,即採用攝像頭作為主要感測器。除特斯拉外,其他車企及自動駕駛廠商均選擇包含鐳射雷達的多感測器融合系統。

圖表:前融合(緊耦合)將多感測器結合使用

資料來源:CSDN,中金公司研究部

圖表:後融合(松耦合)將各自感測器結果再融合

資料來源:CSDN,中金公司研究部

特斯拉通過多種模型分別實現特徵提取、多攝像頭融合、時序特徵提取、多工聯合學習等功能,進而組合形成感知網路。 近年來,特斯拉等自動駕駛技術能力排名前列的廠商越來越多的在感知演算法層面採用神經網路模型,通過構造包含48個神經網路的HydraNets多工神經網路系統,特斯拉目前能夠實現同時檢測1,000種物體。其整體模型主要分為四大部分,每部分均採用深度學習相關模型構建:

►      影象特徵提取: 主幹網使用RegNet對單感測器採集到的原始影象進行分級處理,提取影象的多層次特徵,而後使用BiFPN模型對多層次特徵進行融合。

►      多攝像頭融合: 使用Transformer網路對多攝像頭資料進行融合以構建周圍環境的向量空間,實現影象資料從Image space到Vector space的轉換。特斯拉的Transformer神經網路能夠同時接收8個攝像頭的資料輸入,不僅能有效提升向量空間資料集精度,提升了模型訓練速度,還能產生更具可解釋性的模型,因而Transformer模型也是特斯拉感知演算法結構的核心。

►      時序特徵提取: 利用RNN(Recurrent Neural Network)提取時序特徵,將時間維度加入周圍環境的向量空間,基於過往發生的經驗來處理任意時序的輸入序列,預測環境物體即將發生的動作,例如行人是否要過馬路。

►      多工聯合學習: 構建了帶有時間標記的周圍環境向量空間後,不同任務可以利用向量空間資料開展學習任務,例如車道線檢測等。整套網路採用了多種已存在的模型結構的創新組合,提高了模型的學習能力。

圖表:特斯拉感知演算法結構分為四大部分

資料來源:特斯拉AI day,中金公司研究部

決策演算法:自動駕駛中的核心挑戰與難點

決策層是自動駕駛系統中難度極高的部分,需要高效的AI模型和大量訓練資料。 決策層指依據感知到的道路資訊、交通訊息、車輛自身資訊來進行決策判斷,選擇適當工作模型並制定相應控制策略,對底層控制執行模組下達指令。在車道保持、車道偏離預警、車距保持、障礙物警告等場景中,決策系統需要預測本車及相遇的其他車輛、車道、行人等在未來一段時間的狀態,且不同人對不同情況所做出的駕駛策略也有所不同,因此決策演算法的優化需要高效的人工智慧模型和大量的訓練資料,以覆蓋各種各樣的長尾場景。

自動駕駛的決策系統主要包括行為決策、路徑規劃兩大部分。 行為決策系統對車輛涉及的交通參與者進行建模並預測其行為,再將各方資訊彙總後交由路徑規劃系統做出決策。決策系統按照層級一般可劃分為認知層、任務層、規劃層三層,分別負責駕駛情景認知、駕駛行為決策、區域性路徑規劃,最終決定車輛形式的最優路徑。

圖表:自動駕駛決策規劃分類

資料來源:《自動駕駛汽車擬人化決策系統的關鍵技術研究》(忻隆,2019),中金公司研究部

駕駛情景認知

場景感知是感知和決策交匯環節,向決策環節輸出場景的語義表達和物體的結構化表達。根據下面的自動駕駛任務劃分流程圖,感知模組與決策模組各被分為三部分,場景感知位於兩者的交匯環節。感知層演算法的核心任務是將各種攝像頭、雷達等感測器的輸入資料轉換成計算機能理解的車輛所處場景的語義表達、物體的結構化表達,包括物體檢測、識別和跟蹤、3D環境建模、物體的運動估計等。

圖表:場景感知是感知與決策的交匯環節

資料來源:《Deep Reinforcement Learning for Autonomous Driving: A Survey》(B Ravi Kiran, Ibrahim Sobh,2021),中金公司研究部

圖表:感知系統與決策系統的對接方式

資料來源:百度Apollo,中金公司研究部

駕駛行為決策

感知模組連線行為決策、路徑規劃模組。 在感知系統完成對環境的特徵識別之後,通過四個流程操控控制規劃系統,即輸入資料-形成向量空間-輸出給神經網路-輸出給規劃控制系統,最終由規劃控制系統向車輛輸出轉向、加速等指令。此外,控制規劃系統同時具備多個目標,如特斯拉自動駕駛規劃控制技術的核心目標是在安全、舒適、效率三者之間實現最佳平衡。

決策規劃演算法主要分為三種類型。 決策系統融合了多感測器資訊,再根據駕駛需求進行任務決策,在特定的約束條件下,規劃出兩點之間的多條安全路徑,之後在這些路徑當中選擇一條最優路徑,作為車輛行駛軌跡。目前自動駕駛汽車常用的決策演算法主要有三種類型:基於神經網路的決策、基於專家規則“if-then”、和兩者的混合路徑。

圖表:規劃控制核心目標是實現安全、舒適、效率三者最佳平衡

資料來源:特斯拉官網,中金公司研究部

深度強化學習、模仿學習是決策領域熱點趨勢。 目前以強化學習和模仿學習為代表的決策方法是熱點趨勢,強化學習指通過將駕駛問題建模為馬爾可夫決策過程來學習如何從環境表示中給出最優解。簡言之,該策略通過將自動駕駛策略建模成從環境的狀態到動作的實時對映,駕駛策略通過輸出動作並應用在駕駛環境中,得到下一時刻的狀態和獎勵。

特斯拉採用“粗略搜尋+凸空間內的連續優化”的混合規劃系統,實現平滑的運動軌跡。 特斯拉採用混合規劃系統,首先讓感知資料通過向量空間的粗略搜尋,然後經過凸空間內的連續優化,形成平滑舒適的運動軌跡。具體流程包括接收向量資料集、粗略搜尋結果、投射為線性模型、解決線性問題四大流程。特斯拉藉助這種高效混合演算法,可以在1.5毫秒中作出2,500次的不同情況模擬,並快速選擇最舒適、安全、高效的行為規劃。

圖表:特斯拉混合規劃系統的五個步驟

資料來源:特斯拉官網,中金公司研究部

隨著神經網路在規劃控制使用上越來越多,處理複雜規劃的能力持續提升。 近年來,在視覺識別、語音識別、語音合成、機器翻譯等程式中的神經網路越來越多,規劃控制也已經開始引入神經網路。如特斯拉逐漸在規劃控制中引入更多的神經元網路策略來應對開放、無序的道路場景,實現了規劃控制試錯次數的大幅減少。

最後,整車的軟硬體結合架構設計是高級別自動駕駛的難題。 由於自動駕駛系統複雜度高,涉及到很多感測器的互動融合,每一個硬體的可靠性都會影響到自動駕駛系統的整體可靠性。在進行整車軟硬體結合架構設計時,往往需要整車廠和自動駕駛提供商深度合作,一旦涉及裝置種類和數量的調整,往往會對整個系統的執行產生較大影響,因此需要大量的測試和驗證。

資料:決定量產能力的勝負手

深度學習是資料驅動的AI,資料積累是現階段自動駕駛核心競爭點

深度學習是資料驅動的AI

底層技術決定了資料要素在深度學習中的核心地位。 在深度學習時代,資料、演算法、算力是構造AI的三大要素。由於深度學習的理論基礎保證了當輸入資料量足夠大時,深度神經網路能夠逼近任意的函式,且樣本數越多,模型越能夠收斂至資料背後的真實函式,因此資料要素是深度學習的核心。

圖表:資料驅動的AI

資料來源:《無人駕駛原理與實踐》(申澤邦、雍賓賓、周慶國、李良,2019),中金公司研究部

深度學習需要海量資料“投喂”,未來較長時間內資料積累都將是自動駕駛核心競爭點。 深度學習是自動駕駛演算法的核心,而深度學習依賴於資料的反饋。若自動駕駛產品無法在大量的車隊上實現量產,就難以發現深度學習演算法網路存在的問題,自動駕駛演算法的迭代也將停滯。因此我們判斷,未來較長一段時間內,資料的持續積累將是各大自動駕駛廠商的核心競爭點。以毫末為提出的自動駕駛能力發展曲線為例,其產品力核心迭代動力來自於資料規模。

圖表:自動駕駛能力發展曲線

資料來源:毫末智行 AI day,中金公司研究部

資料積累依賴感知層面感測器的配置。 目前市場上存在兩類配置方案:一類為使用攝像頭作為主要感測器、不採用鐳射雷達感知資料的視覺方案,目前僅特斯拉一家使用,百度2021年底釋出的ANP系統也採用了該方案;第二類為以鐳射雷達為主導的多感測器配置方案,Waymo等L4廠商及其他L2廠商均選擇該技術路線。

視覺vs鐳射雷達?演算法、成本、資料綜合作用下的最優解

攝像頭、鐳射雷達等各類感測器配置方案各有優劣。 自動駕駛技術主要包括感知、規劃控制、決策、執行等環節,感知環節主要包括以Waymo為代表的鐳射雷達主導方案,與以特斯拉為代表的視覺主導方案兩類技術路線。鐳射雷達方案全方位測距能力強,尤其是對深度的探測能力;視覺方案解析度更高,在當前階段成本優勢明顯。

純視覺路線:特斯拉堅持“第一性原理”,打造類人的自動駕駛系統

特斯拉堅持“第一性原理”,認為視覺主導是實現L4自動駕駛的可行路線,且成本優勢明顯。 2021年5月,特斯拉在美國銷售的Model 3/Y車型取消毫米波雷達,完全使用純視覺解決方案。馬斯克堅持“第一性原理”,認為自動駕駛感知過程能僅通過攝像頭模擬人眼功能來實現。

特斯拉自動駕駛技術邏輯:將自動駕駛系統看作生物體,攝像頭是眼睛,AI演算法模型與晶片構成神經與大腦。 特斯拉選擇資料富餘的攝像頭作為“眼睛”,並持續開發自己的“神經”及“大腦”——深度人工神經網路演算法以及於2016-17年開始自研FSD晶片。此外,特斯拉通過建設自動駕駛的超算叢集不斷訓練能力更強的“大腦”,而模擬系統則類似人類在駕校學習的過程,最終通過大量車隊的影子模式不斷反饋迭代,特斯拉的自動駕駛的“大腦”可以不斷學習實際駕駛過程中的經驗,提升駕駛水平。

圖表:人與特斯拉自動駕駛能力體系對比

資料來源:Tesla AI Day,Tesla官網,中金公司研究部

特斯拉路線的關鍵是通過車輛銷量支撐的海量資料,而採用低價的攝像頭才能實現車輛銷售放量,獲得海量資料積累。 特斯拉自動駕駛自成閉環:行駛在道路上的每輛特斯拉都是“資料收集器”,通過車載攝像頭收集資料並上傳雲端,形成龐大且真實的自有資料池。資料輸入自建的神經和大腦——自研晶片及自動駕駛演算法,實現軟硬體的同步優化。Autopilot的“影子模式”完成該學習閉環,影子模式下若使用者駕駛行為與Autopilot的決策對比不一致,該場景資料將會被傳回雲端,進行演算法修正。特斯拉閉環模式的重點是高銷量,而當前階段鐳射雷達價格仍遠高於攝像頭,安裝鐳射雷達的車輛價格高昂,難以實現特斯拉百萬量級的車輛銷量。

特斯拉積累的物體標籤資料量達1.5PB,遠超其他自動駕駛廠商。 根據特斯拉人工智慧總監Andrej在CVPR 2021上的發言,截至2021年6月底,特斯拉擁有百萬量級的車隊,已經收集了100萬個36幀10秒時長的高度差異化場景影片資料,約佔用了1.5PB的儲存空間,獲得了60億個包含精確深度、加速度的物體標註,共進行七輪影子模式迭代流程。特斯拉純視覺版本自動駕駛系統已經積累了近1,500萬英里的資料,其中170萬英里在Autopilot啟動情況下收集。這個資料遠遠領先於其他自動駕駛廠商,也是特斯拉路線優勢的極大體現。

鐳射雷達路線:眾多廠商佈局,降價速度是核心,資料融合是趨勢

鐳射雷達能夠精準感知速度和距離,具備高可靠性,是大部分自動駕駛廠商發力的方向。 與攝像頭相比,鐳射雷達的速度、距離探測能力較強。通常鐳射雷達的角速度不低於0.1mard,即能夠分辨3km距離上相距0.3m的兩個目標;其距離解析度可達0.1m,速度解析度能達到10m/s以內。此外,鐳射雷達還具備較強的抗有源干擾能力,可靠程度高。在高級別自動駕駛系統中,高精度速度和距離感知能力是必備能力,因此眾多廠商都選擇將鐳射雷達作為高級別自動駕駛的感知方案。

成本高昂是使用鐳射雷達的痛點,未來鐳射雷達降價速度成為該技術路線能否大規模應用的關鍵。 鐳射雷達並非完美解決方案,成本高昂是其應用的最大障礙,且不僅體現車輛生產中,後續對鐳射雷達這一基礎硬體進行更新升級的成本也同樣是痛點所在。根據 中金研究汽車組調研 ,每臺可量產鐳射雷達成本已由2017年的US$75,000下降至2021年的US$1,000,未來鐳射雷達的大規模應用將依賴於成本的進一步下降。

圖表:鐳射雷達價格走勢,2017-2023E

資料來源:Livox官網,中金公司研究部

資料、演算法、算力、成本綜合作用下的最優解

從技術角度看,視覺主導與鐳射雷達技術路徑之爭,本質上是AI演算法+硬體逼近人腦能力的速度,與鐳射雷達等可選硬體對資料量、演算法彌補程度及其降價速度之間的競爭。 對於具備資料優勢的特斯拉路線,其技術重點在於提高深度神經網路大腦的辨識能力、語義分辨和可靠性,同時證明視覺資訊具備不遜色於鐳射雷達點雲資料的目標測速和測距潛能。而對於多感測器融合的鐳射雷達技術路線,我們認為,首先,鐳射雷達降價速度是核心擾動因素,未來鐳射雷達的大規模應用將依賴於成本的進一步下降;其次,快速處理鐳射雷達的結構化資料,大幅度降低視覺訊號對於後端演算法處理的壓力,形成更優的組合感知方案是該路線研發的重中之重。

需求端:考慮到消費者對於生命安全願意付出溢價,鐳射雷達作為安全冗餘在很長時間都具備現實需求。 對於消費者來說,自動駕駛安全性是其底線訴求。即使視覺主導路線實現完全自動駕駛技術可行,消費者仍然會追求鐳射雷達輔助的安全冗餘。從這個維度我們判斷,未來較長一段時間內鐳射雷達都存在現實需求。

供給端:大多數自動駕駛廠商不具備明顯資料量優勢,仍尋求多感測器融合方案。 特斯拉視覺主導路線的基礎是百萬級別銷量與1.5PB真實行車資料。商湯科技、毫末智行等其他自動駕駛廠商的資料存量和積累速度無法與特斯拉匹敵,難以滿足視覺主導方案需要海量資料量“投喂”的需求,因此,幾乎都選擇鐳射雷達、毫米波雷達、攝像頭等異源感測器融合方案作為發展方向。

圖表:多感測器資料融合過程

資料來源:CSDN,中金公司研究部

資料體系的自動化水平、效率是關鍵競爭點

自動駕駛從L2向L4的迭代,非結構化資料依賴大量人工標註。 目前自動駕駛主流演算法模型主要以有監督的深度學習為主,因此資料質量決定自動駕駛系統模型質量的上限。由於無監督學習尚不成熟、產出模型質量較低,在自動駕駛這類安全性要求極高的場景可用性較低。使用AI進行資料標註也較為困難,只能實現簡單場景下的資料處理,因此目前AI模型的訓練資料生產仍然需要依賴人工標註,標註內容包括可行駛區域、各類障礙物、建築、植被、各類車輛、車道分界線、紅綠燈等。

資料體系的自動化水平及相關技術對於解決訓練資料生產的成本、效率問題至關重要,壁壘較高。 高自動化水平的資料體系具有較高的研發門檻,大部分資料標註公司難以進行自動化標註系統的研發,需要專業的研發人員和行業knowhow。自動駕駛的自動化標註方案往往需要包括場景資料庫、定製化資料採集標註、資料標註和資料管理平臺等服務。以雲測資料為例,其自動駕駛標註工具集歷經多年研發,包括點雲融合跟蹤、點雲語義分割、影象全景分割、點雲智慧貼合、點雲多幀複製、多邊形切割等各類智慧輔助工具。以毫末資料智慧體系MANA為例,資料收集、處理、標註和AI訓練的成本和速度對自動駕駛系統的成本和迭代速度至關重要。

圖表:毫末自動駕駛資料智慧體系MANA

資料來源:量子位,中金公司研究部

目前自動駕駛企業在資料處理環節較多依賴第三方資料標註廠商。 由於對自動駕駛訓練資料的標註和篩選需要消耗大量的資源,很多智慧駕駛企業和車企都選擇將資料標註交給第三方企業完成。第三方廠商可以通過自建資料場景實驗室、資料標註基地,自研資料標註系統、資料採集系統,開發資料生產流程,為智慧駕駛領域的企業提供定製化的資料採集、資料標註服務,從而同時滿足資料標註效率、質量和隱私安全性,加速自動駕駛產業化落地程序。

以特斯拉為代表的車廠不斷打造自研資料標註平臺,提高自動化水平,正在逐漸使用自動標註替代手工標註。 採用第三方標註具有效率低、反饋慢等痛點,導致標記、分析、處理訓練資料的延遲較高,特斯拉自建超過一千人的資料標註團隊,分成人工資料標註、自動資料標註、模擬模擬、資料規模化四個團隊,技術層面已經完成了從2D標註到4D標註和自動標註的進階,自動標註工具可以通過一次標註就實現所有攝像頭多視角、多幀畫面同步標註,同時也能就時間維度進行標註。

通過自研的離線資料自動標註和自動訓練框架,特斯拉實現無人工干預的識別網路。 特斯拉對高難度的標註任務,採用名叫“Operation Vacation”的流程處理。將對應物體的識別網路的設計、訓練、測試和放入Data Engine平臺的相關工作,系統直接對其進行操作,無需外部人工干預。不同影象的識別標記任務雖然是獨立的,但是其中具備大量性質相同的處理流程和環節,可以直接呼叫上游任務識別的原型。因此,特斯拉自動駕駛團隊可以將大部分的工作交給Data Engine和大量已經存在的Prototype來處理,而優化和引數調優,也放在大迴圈內執行,人工只進行極少的干預,且只會在模型訓練效果差、無法收斂等異常狀態下發揮作用。

圖表:特斯拉Operation Vacation(運營假期)模式

資料來源:特斯拉官網,中金公司研究部

圖表:特斯拉資料生產的三個階段

資料來源:特斯拉官網,中金公司研究部

根據特斯拉AI Day,目前特斯拉資料生產主要包括三個階段:

►     手動標記: 1,000人的標記團隊與工程師合作,手動標記照片(2D)、三維影象(3D)和三維影象影片(4D)中的資訊;

►     自動標記: 通過大量特斯拉測試車輛以及使用者車輛行駛產生的影象資料,上傳到伺服器對同一地點進行深度學習與自動標記,完善特斯拉資料庫;

►     模擬迭代: 通過虛擬環境進行學習,通常用在測試極端情況、難以標記的複雜環境、閉塞路況等現實世界中案例極少的情況,進一步提高自動駕駛系統應對複雜情況的能力。

特斯拉通過“影子模式”針對corner case蒐集大量類似案例資料進行修正,形成資料、訓練、部署的模型優化閉環,從而不斷解決Corner case問題。 在“影子模式”下,自動駕駛電腦進行實時同步計算,但不參與車輛控制,當駕駛員的操作和自動駕駛模型的判斷出現分歧,特斯拉的自動駕駛電腦記錄案例並上傳給總部,通過這種方式收集大量資料再進行場景分類和訓練。此外,人類司機的操作資料可以為神經網路提供質量更高的半監督學習或監督學習引導。以這種方式快速參考大量corner case,使得雲端的自動駕駛神經網路模型得到快速鍛鍊和修正,這也是特斯拉自動駕駛技術的競爭壁壘。

 “影子模式”導致對雲端做標記的算力和人力要求大幅提升,需要提高資料閉環自動化比例。 影子模式針對corner case的處理方法,導致特斯拉在雲端必須具備足夠的人力進行標記工作,以處理短期內大量的上報資料,否則上報資料的錯誤標註會導致已有的自動駕駛模型惡化。因此,資料標註、模型訓練的自動化比例決定Autopilot演算法自我演進的速度。

圖表:特斯拉“影子模式”(Shadow Mode)原理

資料來源:特斯拉官網,中金公司研究部

特斯拉Autopilot的識別網路能夠識別接近一千種目標並作出目標預測。 特斯拉純視覺演算法HydraNets可以基於不同攝像頭的視覺內容進行識別,進行端到端的訓練和推斷。特斯拉Autopilot的HydraNet包含至少48個具體的神經網路結構,可以同時執行超過1,000個不同的識別、預測任務,進行一次充分訓練所需要的週期是7萬GPU小時。

圖表:特斯拉HydraNet網路

資料來源:特斯拉官網,中金公司研究部

通過自動資料標註等全套流程,特斯拉實現FSD模型能力的不斷進化。 特斯拉通過基於海量的道路影片資訊進行無監督學習,將結構化的、語義的道路資訊用來訓練autopilot;結合基於視覺的自監督學習,進行視覺資訊基礎上的深度資訊推斷;根據歷史資訊對未來進行預測。基於自動駕駛神經網路模型-大量資料-資料處理-雲端資料訓練的閉環,特斯拉實現FSD模型能力的持續進化。

算力:大算力晶片元年開啟,AIDC助力大模型能力躍升

車端:2022開啟大算力晶片落地元年

自動駕駛算力先行,晶片格局“一超多強”

高階自動駕駛中算力助力演算法但先行於演算法,大算力是競爭焦點。 自動駕駛汽車一般以多感測器融合的方式採集資料,處理資料需要強大的AI晶片提供算力支撐。自動駕駛級別越高,資料採集、傳輸、處理量指數級提升,對AI晶片算力要求隨之提升。據高工智慧汽車研究,L2/L3/L4/L5級別自動駕駛晶片的算力最低要求分別約為10/100/320/1,000 TOPS(TOPS:每秒萬億次操作)。從AI算力現狀來看,特斯拉FSD 1.0提供72 TOPS,其對應HW 3.0計算平臺採用雙晶片設計,可提供144 TOPS算力,超越主流晶片廠商,但僅可滿足L2/L3級別自動駕駛需求,未來大算力晶片成為自動駕駛升級體驗感的核心競爭點。

AI晶片算力前置冗餘存在必要性。 自動駕駛車輛對感知的需求較高,畫素和資料量均對算力提出了不斷攀升的要求。此外,硬體迭代遠慢於軟體,整車出廠時定義為L2或L2+級別自動駕駛,後期可通過軟體的升級迭代支援各種附加功能,需要額外算力支援,因此算力需較演算法需求具備前置冗餘性。

圖表:自動駕駛各級別對應畫素數、資料量以及算力需求(估計值)

資料來源:智車科技,高工智慧汽車研究,中金公司研究部

注:各級別自動駕駛算力需求,為結合高工智慧汽車研究與智車科技的估測值

自動駕駛AI晶片競爭格局呈以英偉達為領導者的“一超多強”之勢。

►     英偉達: 英偉達入局自動駕駛行業最早,於2014年佈局AI晶片,先發優勢明顯。依託於GPU龍頭地位、完善的CUDA生態建立了AI晶片上的領先地位。由於自動駕駛軟硬體的高耦合性,英偉達通過釋出軟體平臺進一步鞏固了其先發優勢。2015年英偉達率先推出自動駕駛平臺DRIVE PX/PX2,又在2019年推出自動駕駛統一架構DRIVE和為汽車量產設計的Orin計算平臺,成為自動駕駛晶片領域的領導者。

►     英特爾Mobileye: 英特爾於2017年收購PC晶片巨頭Mobileye入局L2自動駕駛市場。Mobileye以視覺感知技術為基礎,推出了演算法+EyeQ系列晶片組成的一系列解決方案,能幫助客戶快速完成自動駕駛系統的研發,幫助車企實現從L0級的碰撞預警到L2級的ICC整合式巡航等ADAS功能。

►     高通: 高通打造自動駕駛軟硬體的整合方案。硬體方面,高通在消費級晶片和座艙晶片上處於領導者地位,其自動駕駛晶片具備更高的價效比和更豐富和生態系統,在ASIC對GPU的替代趨勢下,高通在自動駕駛晶片領域持續追趕。軟體方面,高通釋出Snapdragon Ride平臺,和中科創達等軟體服務商合作推進該平臺的落地,並收購自動駕駛公司Veoneer旗下Arriver業務,將其感知及決策軟體系統納入ADAS解決方案中增強綜合實力。

►     特斯拉: 電動化+智慧化的先行者,踐行視覺AI路線,積累海量影片資料和演算法模型,自研FSD晶片,完成資料、軟體平臺、硬體的全棧式自研。特斯拉曾採用Mobileye和英偉達的AI晶片,之後由於對算力需求較高轉而自研FSD晶片,並在2019年量產入車。

►     地平線: 地平線專注於邊緣人工智慧晶片研發,推出國內首款車規級晶片,打破海外巨頭壟斷,是國內極少數實現量產的車規級AI晶片企業之一,截止2021年9月,晶片出貨量已突破50 萬片。

圖表:各供應商自動駕駛晶片發展程序概覽

資料來源:各公司官網,中金公司研究部

2022開啟大算力自動駕駛晶片量產元年

2022年為自動駕駛晶片量產元年,競爭格局變化為主因。 根據英偉達、高通等頭部廠商對其晶片的量產時點預測,英偉達Orin、高通Snapdragon Ride、地平線征程5等多款大算力晶片均計劃於2022年量產入車,我們認為2019-2020年自動駕駛競爭格局發生劇變,疊加1-2年晶片廠商與車廠的合規、測試驗證期,為2022年集中量產的背後原因:

►     特斯拉作為感知技術自研的先行者,引領域控制器架構,催化晶片廠商格局變化。 特斯拉於2017年啟動自研,改變傳統硬體架構,從雷達、攝像頭分別計算再融合,引領自動駕駛域控制器架構,並通過自研感知演算法進行融合和決策。在特斯拉的帶動下,大量車企開始自研感知技術,攝像頭或雷達系統內部的計算晶片不再必需,但感測器的種類和數量增加對域控制器內的計算晶片提出了更高的要求,自動駕駛計算架構也向集中計算架構轉變。這一變革下,高通於2018年入局,特斯拉自研晶片於2019年搭載Model S等3款車型量產,英偉達也推出Orin系列大算力晶片,並於2021年搶佔造車新勢力卡位。

►     與車廠適配和測試需1-2年,週期較為剛性。 2020-2021年為晶片廠商釋出大算力晶片與計算平臺的集中區間,也是與車廠OEM就未來車型建立合作卡位的時機,考慮到適配和測試周期較為剛性,2022年為競爭格局開啟的元年。

圖表:巨頭競爭節奏時間軸

資料來源:各公司官網,中金公司研究部

未來智慧駕駛晶片格局研判:從強算力到開放性生態

大算力與能效比是首要競爭要素。 自動駕駛AI晶片發展水平相較當下量產的L2/L3需求具備一定冗餘,但尚不滿足L4/L5級別需求,因此大算力依舊是核心競爭要素。鐳射雷達的廣泛應用,將大大增強自動駕駛感知能力的精度和確定性,鐳射雷達與機器視覺組成的AI感知技術與大算力的深度融合,將會進一步提升自動駕駛感知、認知模組的執行效率。此外,地平線、高通分別採用ASIC晶片、ASIC與SoC結合路徑,具備更高能效比,同為重要競爭要素。

除算力比拼之外,開放性平臺提供的豐富軟體生態成為又一核心競爭要素,英偉達和高通生態具備天然優勢,國內廠商地平線和華為緊隨其後。 建立豐富生態的意義在於,支援視覺、毫米波雷達、超聲波雷達、鐳射雷達等多種感測器輸入,並結合各類軟體開發工具降低客戶的開發難度,也可以靈活調整與客戶的合作模式。

圖表:四品牌智慧駕駛晶片競爭優勢

資料來源:各公司官網,中金公司研究部

雲端:AIDC提供強算力後盾,助力演算法模型能力快速提升

自動駕駛為什麼需要AIDC?

大算力能夠處理大體量的回傳資料,構建高精度模型訓練壁壘,催化效能邊界突破。 當資料量較大時,需要大規模計算中心進行分散式並行訓練,否則訓練的耗時將無法接受。同時,大算力也足以支撐訓練更精細的模型。依據特斯拉人工智慧與自動駕駛視覺部門主管卡帕蒂,截至2021年6月,特斯拉需要對60億個物體的距離、速度、加速度等進行標註,資料量高達1.5PB。對於此類資料量大、神經網路引數高的模型進行訓練,模型的高精度和高效率需要大規模雲端超算中心提供算力支援。

此外,大模型路徑是人工智慧產業趨勢,大模型迭代速度遠高於硬體算力,催生大算力需求。 近五年模型引數和複雜度近指數級增長,GPU算力則遠遠滯後。依據Percy Liang、李飛飛[1]等學者論文,計算機系統硬體是資料和大模型拓展的關鍵瓶頸。MIT電腦科學家Charles Leiserson於《Science》發表的一篇文章[2]中指出深度學習正在逼近現有晶片的算力極限,目前計算能力提高10倍相當於三年的演算法改進,因此隨著算力持續提高,硬體成本、訓練成本將越來越高。

圖表:GPU迭代速度慢於模型引數迭代速度,催生更大算力需求

資料來源:《On the Opportunities and Risk of Foundation Models》(Rishi Bommasani、Drew A. Hudson等,2021),中金公司研究部

圖表:全球主要超算中心排名(按FP32算力)

資料來源:CleanTechnica,中金公司研究部

注:資料截至2021年6月

特斯拉專注於神經網路優化的人工智慧計算叢集總算力達1.1 EFLOPS,與谷歌、商湯同為當下第一梯隊。 谷歌於2021年5月釋出新一代ASIC人工智慧晶片TPU v4,主要以pod形式應用,單個pod由4,096個TPU v4單晶片構成,可提供1 EFLOP的算力(對應每秒10^18次浮點運算)。截至2021年,商湯的超算叢集可以提供1.1 EFLOPS算力(BF16,較低精度口徑),臨港AIDC建成後總算力超4.8 EFLOPS。相比於谷歌、商湯的通用AIDC,特斯拉的Dojo超級計算機則專注自動駕駛影片處理,可實現1.1 EFLOPS算力,以全球第一梯隊實力支援自動駕駛大算力需求。

圖表:特斯拉與谷歌AI超算中心

資料來源:各公司官網,中金公司研究部

超算中心對於訓練大模型、降低演算法成本至關重要,巨頭具備天然資本和技術優勢。 由於超算中心是支援大模型算力的關鍵,谷歌、特斯拉等巨頭依託於資金優勢,近幾年大力投入AIDC基礎設施建設,我們預測耗資十億美元以上。對於自動駕駛,自研超算中心能實現高穩定性、低時延、大頻寬、軟硬體相容性高等技術特點。新一代AI演算法發展大背景下,Transformer等大模型技術需要大算力技術平臺做支撐,超算中心將會支援自動駕駛技術進入新階段。

類似自有電商業務需求孕育了亞馬遜、阿里巴巴等CPU時代雲端計算巨頭,我們認為自動駕駛等AI巨頭具備GPU/ASIC雲端計算市場的天然先發優勢。 相對於成熟的x86伺服器市場,GPU伺服器規模仍較小,且GPU伺服器目前階段更多基於本地部署,基於GPU伺服器的雲端計算市場仍處在發展初期階段,且相關技術仍並未完全成熟,在大規模GPU平行計算的效率及穩定性等領域存在較多挑戰,技術壁壘較高。回顧CPU時代雲計算髮展歷史,正是自有業務的需求推動亞馬遜、阿里巴巴等電商巨頭前瞻地發展雲端計算相關技術,並在業務發展實踐中不斷打磨技術的效率及穩定性,從而形成先發優勢。而GPU/ASIC時代底層技術變化較大,目前仍處在萌芽期,未來隨著GPU/ASIC雲端計算市場持續發展,我們認為具備自有需求支撐的自動駕駛龍頭、AI龍頭有望複製這一發展路徑,在GPU/ASIC雲端計算市場發展中佔據先發優勢。

[1] https://arxiv.org/pdf/2108.07258.pdf

[2] https://www.science.org/doi/10.1126/science.aam9744

文章來源

本文摘自:2022年1月27日已經發布的《人工智慧十年展望(三):AI視角下的自動駕駛行業全解析》

陳星宇 SAC 執證編號:S0080121020020

鄧   學 SAC 執證編號:S0080521010008 SFC CE Ref:BJV008

於鍾海 SAC 執證編號:S0080518070011 SFC CE Ref:BOP246

魏鸛霏 SAC 執證編號:S0080121070252

法律宣告

向上滑動參見完整法律宣告及二維碼

特別提示

本公眾號不是中國國際金融股份有限公司(下稱“中金公司”)研究報告的釋出平臺。本公眾號只是轉發中金公司已釋出研究報告的部分觀點,訂閱者若使用本公眾號所載資料,有可能會因缺乏對完整報告的瞭解或缺乏相關的解讀而對資料中的關鍵假設、評級、目標價等內容產生理解上的歧義。訂閱者如使用本資料,須尋求專業投資顧問的指導及解讀。

本公眾號所載資訊、意見不構成所述證券或金融工具買賣的出價或徵價,評級、目標價、估值、盈利預測等分析判斷亦不構成對具體證券或金融工具在具體價位、具體時點、具體市場表現的投資建議。該等資訊、意見在任何時候均不構成對任何人的具有針對性的、指導具體投資的操作意見,訂閱者應當對本公眾號中的資訊和意見進行評估,根據自身情況自主做出投資決策並自行承擔投資風險。

中金公司對本公眾號所載資料的準確性、可靠性、時效性及完整性不作任何明示或暗示的保證。對依據或者使用本公眾號所載資料所造成的任何後果,中金公司及/或其關聯人員均不承擔任何形式的責任。

本公眾號僅面向中金公司中國內地客戶,任何不符合前述條件的訂閱者,敬請訂閱前自行評估接收訂閱內容的適當性。訂閱本公眾號不構成任何合同或承諾的基礎,中金公司不因任何單純訂閱本公眾號的行為而將訂閱人視為中金公司的客戶。

一般宣告

本公眾號僅是轉發中金公司已釋出報告的部分觀點,所載盈利預測、目標價格、評級、估值等觀點的給予是基於一系列的假設和前提條件,訂閱者只有在瞭解相關報告中的全部資訊基礎上,才可能對相關觀點形成比較全面的認識。如欲瞭解完整觀點,應參見中金研究網站(http://research.cicc.com)所載完整報告。

本資料較之中金公司正式釋出的報告存在延時轉發的情況,並有可能因報告發布日之後的情勢或其他因素的變更而不再準確或失效。本資料所載意見、評估及預測僅為報告出具日的觀點和判斷。該等意見、評估及預測無需通知即可隨時更改。證券或金融工具的價格或價值走勢可能受各種因素影響,過往的表現不應作為日後表現的預示和擔保。在不同時期,中金公司可能會發出與本資料所載意見、評估及預測不一致的研究報告。中金公司的銷售人員、交易人員以及其他專業人士可能會依據不同假設和標準、採用不同的分析方法而口頭或書面發表與本資料意見不一致的市場評論和/或交易觀點。

在法律許可的情況下,中金公司可能與本資料中提及公司正在建立或爭取建立業務關係或服務關係。因此,訂閱者應當考慮到中金公司及/或其相關人員可能存在影響本資料觀點客觀性的潛在利益衝突。與本資料相關的披露資訊請訪http://research.cicc.com/disclosure_cn,亦可參見近期已釋出的關於相關公司的具體研究報告。

本訂閱號是由中金公司研究部建立並維護的官方訂閱號。本訂閱號中所有資料的版權均為中金公司所有,未經書面許可任何機構和個人不得以任何形式轉發、轉載、翻版、複製、刊登、發表、修改、仿製或引用本訂閱號中的內容。