Copilot及Cursor等AI編碼助手的新漏洞:透過規則檔案注入惡意程式碼

整理 | 華衛
近日,Pillar Security 的研究人員報告稱,諸如 GitHub Copilot 和 Cursor 這類人工智慧編碼助手,可能會透過惡意規則配置檔案的分發而被操控,從而生成包含後門程式、漏洞及其他安全問題的程式碼。
規則檔案被人工智慧編碼代理用於在生成或編輯程式碼時指導其行為。例如,一個規則檔案可能包含指令,讓編碼助手遵循特定的編碼最佳實踐、採用特定的格式,或者用特定的語言輸出回覆內容。
Pillar 的研究人員開發出了一種攻擊技術,他們稱之為“規則檔案後門”。這種技術透過向規則檔案中注入對人類使用者不可見但人工智慧代理可讀的指令,將規則檔案武器化。研究人員指出,像雙向文字標記和零寬度連線符這類隱藏的 Unicode 字元,可被用於在使用者介面以及 GitHub 的拉取請求中隱藏惡意指令。
規則配置通常在開發者社群中共享,並透過開原始碼庫進行分發,或者包含在專案模板裡。因此,攻擊者可以透過在論壇上分享惡意規則檔案、在像 GitHub 這樣的開源平臺上釋出該檔案,或者透過向一個熱門程式碼庫傳送拉取請求來注入惡意規則檔案。一旦被篡改的規則檔案被匯入到 GitHub Copilot 或 Cursor 中,人工智慧代理在協助受害者未來的編碼專案時,就會讀取並遵循攻擊者的指令。
在 Pillar 展示的一個例子中,一個看似指示人工智慧“遵循 HTML5 最佳實踐”的規則檔案包含了隱藏文字,這些隱藏文字中還有進一步的指令,要求在每個檔案的末尾新增一個外部指令碼。這個隱藏的提示還包括一段越獄程式碼,用於繞過潛在的安全檢查,讓人工智慧確信新增該指令碼對於保護專案安全是必要的,並且這是公司政策的一部分,此外還包含了指令,要求在對使用者的任何回覆中都不要提及添加了該指令碼這件事。
Pillar 的研究人員發現,當被要求生成一個 HTML 頁面時,GitHub Copilot 和 Cursor 都會遵循指令新增外部指令碼,並且在這兩個助手的自然語言回覆中都沒有提到添加了這個指令碼。
研究人員稱,“規則檔案後門”還有可能被用於在生成的程式碼中引入安全漏洞,或者建立會洩露資料庫憑證或 API 金鑰等敏感資訊的程式碼。
Pillar 在 2025 年 2 月向 Cursor 披露了這一漏洞利用情況,並在 2025 年 3 月向 GitHub 披露了相關情況。Cursor 表示,這個問題並非源於其平臺的漏洞,管理風險是使用者的責任。GitHub 也做出了類似回應,稱使用者有責任審查並接受由 Copilot 生成的程式碼和建議。
在 GitHub 2024 年“軟體開發中的人工智慧”調查中,約 97% 的受訪者表示,他們在工作中及工作外都使用過生成式人工智慧,這表明人工智慧編碼輔助在開發者中相當普遍。
Pillar 建議開發者審查他們使用的所有規則檔案,檢查是否存在諸如不可見的 Unicode 字元或不尋常格式等潛在的惡意注入情況,並像審查可執行程式碼一樣嚴格審查人工智慧配置檔案。
研究人員表示,對於人工智慧生成的程式碼也應該仔細審查,尤其是對於外部資源引用等意外新增的內容。自動化檢測工具也有助於識別規則檔案中的可疑內容,或者人工智慧生成程式碼中存在被篡改的跡象。
參考連結:
https://www.scworld.com/news/how-ai-coding-assistants-could-be-compromised-via-rules-file
 直播預告
智慧編碼工具層出不窮,究竟怎麼選、如何用?3 月 5 日 -28 日,InfoQ 極客傳媒將發起「智慧編碼系列」直播,邀請阿里、百度、騰訊、位元組、商湯、思碼逸等企業一起線上 Coding,與所有開發者直觀感受和評測數款國內外線上編碼工具在企業真實生產場景中的表現。歡迎掃碼或點選按鈕一鍵預約直播、查看回放
今日薦文
Qwen3部分技術細節被扒;年薪達945萬!80後女副總裁首登福布斯;位元組吳永輝親自帶實習生,取消Seed季度 OKR|AI週報
谷歌史上最大收購:320 億美元買下了發現 DeepSeek 資料庫洩露的那家小企業
李開復:超大模型預訓練逐漸寡頭化,國內將收斂至 DeepSeek、阿里、位元組三家
史上最貴 API!比 DeepSeek-R1 貴千倍,OpenAI 高價勸退一批使用者!
你也「在看」嗎?👇

相關文章