

論文標題:
Bridging Traffic State and Trajectory for Dynamic Road Network and Trajectory Representation Learning
論文連結:
https://arxiv.org/abs/2502.06870
程式碼連結:
https://github.com/NickHan-cs/TRACK

現存問題與研究動機
當前大多數路網和軌跡表示學習方法主要側重於從靜態的路網結構和固定的路段特徵中提取表示,而未能捕捉實際交通中的時空動態特性。具體來說,現有方法:
-
對路段的表示學習大多基於固定的靜態屬性(如長度、速度限制等)及區域性結構資訊,缺乏對交通狀態(如交通流、密度、平均速度)隨時間變化的建模;
-
在軌跡建模中,雖然有的方法對時間資訊進行一定的編碼,但通常僅考慮軌跡自身的時序特徵,而忽略了軌跡所經過路段的動態交通狀態;
-
獨立建模交通狀態資料(宏觀群體特徵)與軌跡資料(微觀個體特徵),缺乏對二者的聯合建模。

▲ 圖1. 交通狀態資料和軌跡資料之間相互影響
交通狀態資料和軌跡資料之間存在時空相關性和相互影響。首先,交通狀態會影響個體對軌跡路線的選擇,如圖 1(a) 所示,在非高峰時段,人們傾向於選擇最短路線 ,但在高峰時段,繞行路線 可能是一個更省時的選擇。
其次,個體在道路網路上的轉移是交通狀態變化的直接原因,如圖 1(b) 所示,C 路段的交通流量由來自 A 路段的交通流量和來自 B 路段的交通流量組成。因此,從 A 路段到 C 路段的轉移機率在不同時間段內變化,直接影響 C 路段的交通狀態。
因此,本文提出 TRACK 模型,打破傳統將交通狀態和軌跡資料分開處理的侷限,提出一種聯合建模的方法。透過同時利用兩種資料,更全面地捕捉路網的動態變化,從而為下游任務(如交通流預測、旅行時間估計等)提供更準確的表示。

符號定義
定義1 路段
路段 是城市交通場景中的最小空間單元,其中 是路段的集合。
定義2 時間片
時間片 是城市交通場景中的最小時間單位(例如一小時)。
定義3 路網
道路網路被描述為一個圖 ,其中是 路段的節點集, 是鄰接矩陣,用於描述 條路段之間的連線資訊。路網包含道路路段的空間特徵。
定義4 路段的靜態特徵
路段 的靜態特徵 是一個特徵向量,通常在建造後不會隨著時間的推移而變化, 是特徵向量的維度。並使用 表示路網中 條路段的靜態特徵。
定義5 交通狀態序列
交通狀態序列 由 個連續的歷史交通狀態組成,其中,, 表示時間片 的交通狀態(例如:流量、密度、平均速度), 是資料維度。
定義6 軌跡
軌跡 是記錄汽車或人在路網範圍內移動的一系列時空點,其中是 時空點的總數,表示 第次訪問 的路段, 表示對應的時間戳。假設在時間片 內有一組軌跡, 每條軌跡 的出發時間戳位於時間片 內。

方法

▲ 圖2. TRACK的整體架構
TRACK 透過動態聯合建模交通狀態與軌跡資料,設計以下核心模組:
1. 軌跡表示學習
靜態特徵編碼:使用圖注意力網路(GAT)編碼路段靜態屬性(長度、型別)與空間拓撲結構:

其中, 表示標準化 GAT 或使用稀疏矩陣運算最佳化的 GAT 網路,路網中條路 段的表示。
時間戳編碼:引入了一個時間嵌入層,將軌跡中的原始時間戳轉換為低維表示向量 ,分別表示每週週期模式、每日週期模式、位置資訊和時間間隔資訊。
軌跡表徵:對於軌跡中第 次訪問的路段 ,首先透過 GAT 得到路段表示 ,並透過如下方式結合時間戳表示,得到總體表示 :

為捕獲軌跡的遠端依賴關係並識別軌跡的全域性語義,進一步將表示序列 輸入到 Transformer 編碼器獲得最終軌跡表示 :

其中函式 表示 Transformer 編碼器, 是佔位符的嵌入向量,表示軌跡整體表示。
掩碼軌跡預測(MTP)任務:掩蓋軌跡的連續子段及其對應的時間戳,並使用解碼器來恢復掩碼值,損失函式可定義為:

其中 和 分別表示被遮掩的路段和時間戳的集合。
對比軌跡學習(CTL)任務:採用對比學習策略,從不同視角中生成多個軌跡的樣本,並拉近語義相似樣本在表示空間中的距離,同時推遠語義不同的樣本。
該任務的核心在於如何構建和錨軌跡具有相似語義的正例軌跡。本工作使用了兩種針對軌跡的資料增強策略:
1. 軌跡裁剪:該策略透過在軌跡的開始或結束部分裁剪一小段子軌跡生成正例軌跡。該策略的出發點在於僅在開始或結束部分有輕微差異的軌跡的出行語義是相似的。
2. 時間擾動:該策略隨機選擇部分路段的訪問時間戳進行擾動,因為交通場景具有較大的不確定性,該策略可以使軌跡表示向量對於時間的輕微擾動是穩健的。
損失函式可定義如下:

其中, 表示批次大小; 是一組正樣本對; 是一個指示函式,當 時取1; 是一個溫度引數。
2. 交通狀態表示學習
動態空間特徵編碼:為結合軌跡資料中包含的動態資訊,本文引入了一個軌跡轉移感知 GAT(Trajectory Transition-aware GAT)。具體來說,本文基於歷史軌跡資料統計在時間片 ,路段 到 的轉移機率 ,並引入到 GAT 的注意力分數計算中:

其中 以及 均表示可學習引數, 表示路段 的鄰居集合。
交通資料編碼:將時間片 處的交通狀態序列 轉換為嵌入張量,並結合 個時間片的每週週期模式 、每日週期模式 和位置資訊 ,以及經過軌跡轉移感知 GAT 得到的路網表示 ,計算得到最終編碼向量 :

交通狀態表徵:將 進一步輸入到時空 Transformer 編碼器中,捕獲交通序列的動態時空依賴關係。時空 Transformer 編碼器由多個時空 Transformer 編碼器層組成。
在每個編碼器層中,首先將 分別輸入到空間編碼器(GAT)和時間編碼器(自注意力)。之後,連線空間和時間編碼器的輸出嵌入,輸入到其他元件中。最後,使用一個卷積層將中間表示 轉換為路網表示:。

掩碼狀態預測(MSP)任務:隨機將交通狀態序列中一段連續交通流資料掩蔽為 0,解碼器利用潛在表示和掩碼詞元來重構被掩蔽的交通流資料。損失函式定義為:

其中 是路段 的歷史交通流序列中被掩蔽的交通流子序列的時間段集合。
下一狀態預測(NSP)任務:掩碼狀態預測任務重點在於訓練路網從時間段 到時間段 的中間表示,幫助模型捕捉到歷史時間段交通流資料中更豐富的語義資訊。而交通流預測任務是使用基於路網表示 去預測下一時間段的交通流資料。
以訓 練模型得到更準確的表示。相應的損失函式定義為:

3. 多視角互動建模

▲ 圖3. 協同注意力架構以及從軌跡資料視角的GAT操作
協同注意力機制:設計基於“引力”的 GAT 層,跨視角聚合交通狀態與軌跡特徵,增強路段動態表示。以軌跡資料視角為例,定義路段 在 分鐘可達鄰域集 ,令 表示路段在 時間片 的軌跡表示向量,則 和 間的歸一化注意力權重 表示為:

其中, 和 是可學習引數,函式 表示地理距離抑制函式。
軌跡-交通狀態匹配任務:為對齊軌跡表示與對應交通狀態表示,最大化跨視角一致性,本文設計了一個對比學習任務。
對於軌跡 ,其軌跡表示為 ,對應的 條路段表示為 ,其中 從路網表示 中提取。最後透過對 的第一維進行平均池化得到最終表示向量 。
在對比學習過程中,時間片長度設定為,對於每條軌跡,將視為一個正樣本對,並相應地從其他時間片提取路段表示,並構造負樣本對。最終損失函式可以定義為:

模型聯合預訓練:為跨多源資料學習時空模式,本文以聯合方式對所提出模型的所有模組進行預訓練,整體損失函式如下:


實驗結果
4.1 主要實驗結果

▲ 表1. TRACK下游任務效果
本文在多步交通狀態預測(MSTSP)和旅行時間估計(TTE)兩個下游任務上分別與交通狀態預測方法和軌跡表示學習方法進行比較。結果顯示 TRACK 均優於其他基線方法,說明 TRACK 提供了準確的表示。
4.2 消融實驗結果

▲ 表2. 消融實驗結果
論文設計了多種消融變體,包括:
-
去除交通狀態建模模組(w/o Traf)
-
去除軌跡建模模組(w/o Traj)
-
去除軌跡-交通狀態匹配任務(w/o Match)
-
去除MTP任務中對時間和路段的mask預測(w/o TMask、w/o SMask)
-
去除對比學習任務(w/o Contra)
實驗結果表明,模型關鍵模組以及設計的自監督任務均對最終效能有正向貢獻。

總結
TRACK 框架首次將交通狀態資料與軌跡資料進行聯合建模,透過設計一個多模組聯合預訓練框架,實現了動態路網和軌跡表示的聯合學習,充分利用了交通狀態與軌跡資料之間的互補資訊,有效突破了傳統靜態表示學習方法的侷限。

引用
如果你覺得本文有用的話,請引用:
@article{han2025bridging, title={Bridging Traffic State and Trajectory for Dynamic Road Network and Trajectory Representation Learning}, author={Han, Chengkai and Wang, Jingyuan and Wang, Yongyao and Yu, Xie and Lin, Hao and Li, Chao and Wu, Junjie}, journal={arXiv preprint arXiv:2502.06870}, year={2025}}
本文實驗過程使用到了 LibCity 城市時空預測深度學習演算法庫。如果你對 LibCity 感興趣的話,可以訪問 Github 主頁:
https://github.com/LibCity/Bigscity-LibCity
更多閱讀

#投 稿 通 道#
讓你的文字被更多人看到
如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。
總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋樑,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學術熱點剖析、科研心得或競賽經驗講解等。我們的目的只有一個,讓知識真正流動起來。
📝 稿件基本要求:
• 文章確係個人原創作品,未曾在公開渠道發表,如為其他平臺已發表或待發表的文章,請明確標註
• 稿件建議以 markdown 格式撰寫,文中配圖以附件形式傳送,要求圖片清晰,無版權問題
• PaperWeekly 尊重原作者署名權,並將為每篇被採納的原創首發稿件,提供業內具有競爭力稿酬,具體依據文章閱讀量和文章質量階梯制結算
📬 投稿通道:
• 投稿郵箱:[email protected]
• 來稿請備註即時聯絡方式(微信),以便我們在稿件選用的第一時間聯絡作者
• 您也可以直接新增小編微信(pwbot02)快速投稿,備註:姓名-投稿

△長按新增PaperWeekly小編
🔍
現在,在「知乎」也能找到我們了
進入知乎首頁搜尋「PaperWeekly」
點選「關注」訂閱我們的專欄吧
·
·
·
