近年來,ChatGPT等AI聊天機器人功能日益強大,不僅能記錄使用者的偏好,提供個人化的回覆,甚至能協助處理工作事務。然而,隨著使用者與AI的互動日漸頻繁,資訊安全與隱私保護的風險也隨之增加。專家警告,應謹慎對待與AI聊天機器人的對話內容,避免透露過於敏感的個人及企業資訊,以免不慎洩漏。
根據《華爾街日報》報導,史丹佛大學以人為本人工智慧研究所(HAI)研究員珍妮佛.金(Jennifer King)指出,一旦將資訊輸入聊天機器人,使用者便失去了對該資訊的控制權。
過去就曾發生ChatGPT的漏洞,導致部分用戶能看到其他人的聊天記錄,以及OpenAI寄送訂閱確認郵件給錯誤對象,暴露用戶姓名、電子郵件和付款資訊等事件,都凸顯了AI平台潛在的資安風險。此外,用戶的聊天記錄也可能在駭客攻擊或法院要求下被洩漏。
5大資訊別輕易告訴AI
1.身分識別資訊
包括身分證號碼、駕照、護照號碼,以及出生日期、地址和電話號碼等個人資訊。部分聊天機器人雖會嘗試自動編輯這些資訊,但使用者仍應避免主動提供。
2.醫療結果
個人醫療資訊須保密,有些人會與AI討論自己的病例經驗,尋求醫療知識或幫助,但聊天機器人通常不會將醫療數據列入特殊保護範圍。若想利用AI分析檢驗報告,建議先裁剪圖片或編輯文件,僅保留測試結果並塗掉個人識別資訊。
3.金融帳戶
銀行和投資帳戶號碼一旦洩漏,可能被用於監控或盜取資金。
4.企業內部資訊
若在工作中使用通用版本的聊天機器人,即使是撰寫郵件這樣的小事,也可能不慎洩漏客戶資料或未公開的商業機密。三星(Samsung)就曾發生工程師向ChatGPT洩漏內部原始碼而禁用。若企業需要AI協助,應考慮訂閱企業版本或建立具有公司專用保護的客製化AI。
5.帳號密碼登入憑證
隨著具備執行現實世界任務能力的「AI代理」興起,使用者可能會需要向聊天機器人提供帳戶憑證。然而,這些服務並非擁有數位保險庫的功能,密碼、PIN碼和安全問題應保存在專用的密碼管理器中。
如何自保?善用隱私設定與定期刪除
但如果無法不使用AI談及私密內容,或是從源頭避免隱私外洩,使用者可以採取以下行動:
1.定期刪除對話資訊
Anthropic資訊安全長傑森.克林頓(Jason Clinton)建議,對於特別注重隱私的用戶,應在使用完畢後立即刪除所有對話。一般而言,AI公司會在30天後清除「已刪除」的數據。
然而,中國的AI模型DeepSeek根據其制定的隱私政策,可能會無限期保留用戶數據,且不提供退出選項,用戶需特別留意。
2.打開臨時聊天功能
例如,ChatGPT提供「臨時聊天」(temporary chat)模式,在聊天視窗的右上角處,啟用後,對話內容不會儲存在聊天記錄中,也不會用於模型訓練,如同瀏覽器的無痕模式。
3.使用匿名提問功能
隱私搜尋引擎DuckDuckGo開發的Duck.ai聊天機器人,提供匿名提問功能,可將用戶的提問匿名化,傳送給包括Claude和OpenAI GPT在內的AI模型,官方聲稱數據不會用於模型訓練,但功能可能不如完整版的聊天機器人,例如無法分析文件。
總之,雖然AI聊天機器人功能強大且方便,但使用者必須謹記,這些工具的設計目的是持續對話,是否謹慎以對,保護個人及企業的敏感資訊,最終取決於使用者本身。適時按下「刪除」鍵,或許是保護隱私最簡單卻也最有效的方法。
資料來源:WSJ
*本文出自《數位時代》,原文標題:跟AI聊天別掏心掏肺!這5件事「不要告訴ChatGPT」:如何狂用AI,還能自保隱私?
延伸閱讀:
不只輝達H20!超微MI308晶片遭美國列管:得先上繳8億美元,才「有機會」出口中國
Vibe Coding新神器?Google推Firebase Studio,一句話「打造App」還能一鍵佈署
責任編輯:陳瑋鴻
核稿編輯:倪旻勤