2025年10月號 生活情報
注意!不能跟AI說的秘密
遠東新世紀 / 簡筠茹

ChatGPT當機,你也崩潰了嗎?2025年4月,ChatGPT網頁版突如其來大當機,在社群平臺掀起上班族集體焦慮。有使用者哀號企劃案寫到一半卡住了!也有人直白地說,今天沒辦法工作了,顯見生成式AI逐漸成為不可或缺的助手與最信任的數位同事。但是在享受便利的同時,你可曾想過AI知道什麼該保密嗎?
有些事,得學會「開不了口」

生成式AI是透過大量資料學習來生成回覆,使用者輸入的問題或資料都可能被平臺記錄,甚至成為訓練下一代模型的材料。雖然OpenAI、Google等供應商都曾強調資料處理的安全性,也提供「不儲存聊天內容」或「刪除對話紀錄」等選項,但仍發生過資訊外洩的案例。根據《華爾街日報》報導,史丹佛大學人工智慧專家Jennifer King提醒,若與AI工具互動時不小心輸入敏感資料,可能會帶來隱私風險,尤其要特別留意下列五大類型資訊:
1.個人識別資料(PII)
身分證字號、護照號碼、出生年月日、住家地址、電話號碼等,都可直接識別出個人資訊,一旦落入有心人士手中,就可能被盜用身分或利用社交工程攻擊。
2.醫療健康資訊
不少人會請AI閱讀健檢報告、解釋身體症狀,甚至分析醫師的診斷內容。不過,目前市面上大多數的AI工具尚未納入醫療法規保障,對於健康資料也缺乏足夠的保護機制。若希望請AI協助解讀檢查報告,務必遮蔽姓名、身分證字號、醫療院所等敏感欄位,僅保留必要的數據內容,以降低個資外洩風險。
3.金融帳戶與交易資訊
帳號、銀行代碼、信用卡資訊、投資明細、報稅資料、薪資記錄等,都是不該輸入的內容。這些資料一旦外洩,不只是資安問題,更可能造成金錢損失。
4.公司內部資訊
很多人寫郵件、擬報告、改簡報時,會把專案名稱、客戶資料、內部流程內容提供給AI協助撰寫。看似方便,卻很危險。有些AI平臺已明確揭示,免費版或開放版本的使用內容可能被用來改善模型。
5.登入帳密與認證憑證
越來越多AI工具可以幫忙寫程式、串接應用程式,甚至模擬任務自動化流程。有些使用者為了省事,會直接把API key、密碼、Token提供給AI,造成極高的風險。一旦憑證被記錄、外洩或誤用,都可能導致帳號被盜或系統被入侵。
五招讓AI用得安心
1.避免用真實資料
請以虛構的內容或模擬情境取代真實資料,若需呈現實際狀況,也務必將姓名、帳號、金額等敏感資訊先行遮蔽,以免個資外洩。
2.開啟無痕聊天模式
ChatGPT在使用者介面的右上角有個圓圈,打勾即可開啟類似無痕視窗的「Temporary Chat」功能,避免對話內容被記錄或用於訓練模型。
3.善用隱私設定功能
多數生成式AI工具都提供隱私控制選項,例如:是否儲存聊天內容、是否用於訓練模型等,建議先至「帳戶設定」選擇更嚴謹的隱私防護功能。
4.定期清除使用紀錄
不論使用哪一個平臺,都應養成刪除對話紀錄的習慣,避免留下過多可溯源的數位痕跡,才能降低資料被誤用或外洩的風險。
5.選擇使用企業自建平臺
遠東新世紀內部已導入AIFE 3.0(愛遠東AI平臺),維持AI協作效率的同時,也提供一個可信任的使用環境,讓AI工具真正成為職場上的數位夥伴。
AI用得巧 別讓輸入變輸出
生成式AI儼然成為現代職場的重要助力,從溝通到創作,幾乎無所不包。但別忘了,它的「聰明」來自我們輸入的每一筆資料。給得越多,效能越強;資訊越細,風險也越高。善用AI讓工作更有效率,才能把時間用在更有價值的地方。畢竟,再聰明的工具,也需要使用者有智慧地駕馭。選對工具、用對方法,把風險阻擋在外,效率留給自己,才是通往AI時代最穩健的方式。
*圖片來源:freepik
#



















