
01
ChatGPT聊天安全警報!斯坦福學者:這5類資訊千萬別對AI說
點選下方公眾號
檢視更多本地新聞

(新聞報道截圖)
AI時代,ChatGPT已成為“萬能助手”,但你是否意識到,每一次輸入都可能成為隱私洩露的“定時炸彈”?斯坦福大學研究員Jennifer King警告:“有些話,真的不能對AI說!”
從寫郵件、改簡歷到情感諮詢、萌寵繪畫,ChatGPT的“全能”讓無數人依賴。但斯坦福大學研究員Jennifer King指出:“一旦輸入內容,你就失去了對它的控制權。”

此外,OpenAI官網也明確提示使用者,切勿分享任何敏感資訊。官網的風險提示更是直白:“AI無法保證100%安全,敏感資訊一旦洩露,後果不可逆。”
所以,和ChatGPT聊天絕對不能透露的有哪些呢?建議又是什麼?看看專家怎麼說👇

個人身份資訊:SSN、護照、駕照號碼、出生日期、住址、手機號…
風險:AI模型雖會嘗試自動遮蔽,但無法100%保證安全。
建議:寧可不說,也別冒險。

醫療檢查結果:體檢報告、血檢指標…
風險:AI不屬於醫療保密體系,原始報告上傳即洩露。
建議:裁剪姓名、編號後,僅保留檢測資料。

銀行或投資賬戶資訊:賬號、密碼、交易記錄…
風險:惡意利用將導致財產損失。
建議:AI不是保險箱,涉及財務資訊請繞道。

登入賬號與密碼:網站、郵箱、APP的使用者名稱和密碼…
風險:AI無法安全儲存賬號資訊,洩露風險極高。
建議:再懶也別把密碼交給AI!
公司機密與敏感資料:客戶資訊、商業機密、非公開專案資料…
風險:AI“潤色”郵件時可能無意洩露核心資料。
建議:工作中需用AI時,優先選擇企業版或內部定製AI。

面對可能發生的意外,專家建議,使用者應用強密碼+雙重驗證,防止駭客入侵。同時,也可以手動刪除對話記錄,降低資料洩露風險。
AI是工具,而非“隱私黑洞”。學會與ChatGPT“安全對話”,才能讓科技真正服務於人類。未來,隱私保護將如何與AI發展平衡?這場全球博弈,才剛剛開始……




