隨著人工智慧(AI)聊天機器人蓬勃發展,人們開始向ChatGPT等聊天機器人傾訴各種疑難雜症,包括諮詢感情困擾、撰寫電子郵件、把狗狗的照片變成人類等等。但專家指出,有5件事情顯然永遠不應該告訴AI,例如在工作上應用時,就可能不小心洩露企業機密。
史丹佛大學"人本人工智慧研究中心"(HAI)研究員珍妮佛(Jennifer King)向《華爾街日報》表示,當你向聊天機器人輸入一些東西時,"你就失去了對它的掌控權"。
企業資訊
如果你在工作中使用ChatGPT或其他AI聊天機器人,例如撰寫電子郵件或編輯檔案,可能不小心暴露客戶資料或非公開商業機密。一些公司會訂閱企業版AI聊天機器人,或者擁有具備保護措施的客製化AI程式,相對能夠防止這類問題。
醫療結果
儘管醫療業非常重視患者隱私,會嚴格保護患者個資並且防止歧視,但AI聊天機器人通常不包括在此範圍內。如果你覺得有必要請ChatGPT解釋醫療檢測結果,建議在上傳檔案之前,事先剪裁或編輯,"只保留檢測結果"的部分就好。
登入資訊
一些人可能認為,隨著AI執行任務的能力有所提高,可以放心把各種平臺的帳號密碼交給它們,但AI機器人不是保險箱,也不能保證這些帳號的安全,把這些資訊輸入"密碼管理工具",才是更好的選擇。
身份資訊
不要向ChatGPT揭露任何身份資訊,例如生日、地址、電話號碼、身份證字號、護照號碼等。儘管一些聊天機器人會對這些敏感資訊進行編輯,但更安全的方法就是完全避免分享這些資訊。
OpenAI一名發言人向《華爾街日報》表示,"我們希望我們的AI模型瞭解世界,而不是個人。我們積極減少蒐集個人資訊。"
金融帳號
絕對不要提供你的銀行或投資帳號,這個資訊可能被駭客入侵,導致資金流向遭到監控或盜用。
事實上,OpenAI在官網寫道,"請不要在你的對話中分享任何敏感資訊",Google也在AI聊天機器人Gemini的頁面呼籲使用者不要輸入"你不希望審查員看到的機密資訊或任何資料。"
如果仍想和AI分享私密資訊,建議更換成高強度密碼,並且啟用多重要素驗證。人工智慧公司"Anthropic"首席執行長克林頓(Jason Clinton)建議,可以在每次使用完畢之後"刪除對話方塊",企業通常會在30天之後,永久刪除這些資料。



