問界M9自動開出車庫功能的研發經歷了哪些階段?
問界M9自動開出車庫功能的研發經歷了環境感知、數據融合與決策、車輛執行三個核心階段。這一功能依托華為乾崑智駕ADS系統的技術積淀,從感知層的硬件布局到決策層的算法優化,再到執行層的精準控制,形成了一套完整的技術閉環。環境感知階段,通過4顆激光雷達、13顆車外攝像頭等36個傳感器構建360°感知網,實現250米內障礙物探測與惡劣天氣環境適應;數據融合與決策階段,借助GOD+PDP端到端神經網絡架構,將多傳感器數據轉化為毫秒級駕駛指令,無需高精地圖即可自主學習復雜場景;車輛執行階段,則通過電機控制、AEB緊急制動等技術,實現地庫到地面的平順切換與小于5厘米的泊車誤差,最終讓自動出庫功能兼具安全性與實用性。

在環境感知階段,問界M9的硬件布局圍繞“全場景覆蓋”展開。4顆華為激光雷達(含1顆192線主雷達與3顆固態雷達)組成核心探測矩陣,主雷達250米的最遠探測距離可精準識別遠處障礙物,固態雷達則強化近距離盲區監測;13顆車外攝像頭覆蓋前后左右不同視角,其中前視攝像頭支持車道線、交通標志的像素級識別,側視攝像頭輔助判斷側方來車;5顆毫米波雷達在雨雪霧等惡劣天氣下仍能穩定探測動態目標,與激光雷達、攝像頭形成互補。這套36個傳感器的組合,為自動開出車庫功能搭建了無死角的“環境眼睛”,確保車輛在光線昏暗、空間狹窄的地庫中也能清晰感知周圍環境。
數據融合與決策階段是自動出庫功能的“大腦中樞”。傳感器采集的海量數據實時傳輸至華為自研車載計算平臺,通過GOD+PDP端到端神經網絡架構處理。該架構首先完成多傳感器數據融合,將激光雷達的三維點云、攝像頭的圖像信息、毫米波雷達的距離數據整合成統一的環境模型;隨后AI系統啟動動態預測,基于歷史數據與實時信息,預判行人、車輛等交通參與者的下一步動作;最后在毫秒級時間內生成最優駕駛指令,包括轉向角度、加速力度等,且無需依賴高精地圖,可自主學習地庫坡道、立柱分布等個性化場景,讓決策更貼合實際使用需求。
車輛執行階段則聚焦“指令落地的精準性”。決策指令通過車身控制系統轉化為具體操作:轉向系統由電機精準控制角度,誤差控制在±0.5度內,確保出庫時沿規劃路線平穩行駛;動力系統根據坡道坡度自動調節扭矩,避免地庫上坡時溜車;AEB緊急制動系統在自動出庫過程中保持待命,可應對突發的行人闖入等情況。針對地庫到地面的場景切換,車輛能自動調整懸掛軟硬與動力輸出,適應路面變化;自動泊車誤差小于5厘米的精度,也為自動出庫后的停車位置校準提供了保障,讓整個流程從啟動到完成都流暢自然。
作為鴻蒙智行生態的旗艦車型,問界M9的自動開出車庫功能不僅是單一技術的落地,更是“感知-決策-執行”全鏈路技術協同的成果。從硬件層面的多傳感器布局,到軟件層面的端到端算法優化,再到執行層面的精準控制,每個階段都圍繞用戶實際使用場景設計,既體現了華為技術賦能的優勢,也為中高端SUV的智能駕駛功能樹立了新的標桿,讓用戶在日常用車中切實感受到科技帶來的便利。
最新問答





