2025年10月號 生活情报
注意!不能跟AI说的秘密
远东新世纪 / 简筠茹

ChatGPT当机,你也崩溃了吗?2025年4月,ChatGPT网页版突如其来大当机,在社群平台掀起上班族集体焦虑。有使用者哀号企划案写到一半卡住了!也有人直白地说,今天没办法工作了,显见生成式AI逐渐成为不可或缺的助手与最信任的数位同事。但是在享受便利的同时,你可曾想过AI知道什么该保密吗?
有些事,得学会「开不了口」

生成式AI是透过大量资料学习来生成回覆,使用者输入的问题或资料都可能被平台记录,甚至成为训练下一代模型的材料。虽然OpenAI、Google等供应商都曾强调资料处理的安全性,也提供「不储存聊天内容」或「删除对话纪录」等选项,但仍发生过资讯外洩的案例。根据《华尔街日报》报导,史丹佛大学人工智慧专家Jennifer King提醒,若与AI工具互动时不小心输入敏感资料,可能会带来隐私风险,尤其要特别留意下列五大类型资讯:
1.个人识别资料(PII)
身分证字号、护照号码、出生年月日、住家地址、电话号码等,都可直接识别出个人资讯,一旦落入有心人士手中,就可能被盗用身分或利用社交工程攻击。
2.医疗健康资讯
不少人会请AI阅读健检报告、解释身体症状,甚至分析医师的诊断内容。不过,目前市面上大多数的AI工具尚未纳入医疗法规保障,对于健康资料也缺乏足够的保护机制。若希望请AI协助解读检查报告,务必遮蔽姓名、身分证字号、医疗院所等敏感栏位,仅保留必要的数据内容,以降低个资外洩风险。
3.金融帐户与交易资讯
帐号、银行代码、信用卡资讯、投资明细、报税资料、薪资记录等,都是不该输入的内容。这些资料一旦外洩,不只是资安问题,更可能造成金钱损失。
4.公司内部资讯
很多人写邮件、拟报告、改简报时,会把专案名称、客户资料、内部流程内容提供给AI协助撰写。看似方便,却很危险。有些AI平台已明确揭示,免费版或开放版本的使用内容可能被用来改善模型。
5.登入帐密与认证凭证
越来越多AI工具可以帮忙写程式、串接应用程式,甚至模拟任务自动化流程。有些使用者为了省事,会直接把API key、密码、Token提供给AI,造成极高的风险。一旦凭证被记录、外洩或误用,都可能导致帐号被盗或系统被入侵。
五招让AI用得安心
1.避免用真实资料
请以虚构的内容或模拟情境取代真实资料,若需呈现实际状况,也务必将姓名、帐号、金额等敏感资讯先行遮蔽,以免个资外洩。
2.开启无痕聊天模式
ChatGPT在使用者介面的右上角有个圆圈,打勾即可开启类似无痕视窗的「Temporary Chat」功能,避免对话内容被记录或用于训练模型。
3.善用隐私设定功能
多数生成式AI工具都提供隐私控制选项,例如:是否储存聊天内容、是否用于训练模型等,建议先至「帐户设定」选择更严谨的隐私防护功能。
4.定期清除使用纪录
不论使用哪一个平台,都应养成删除对话纪录的习惯,避免留下过多可溯源的数位痕迹,才能降低资料被误用或外洩的风险。
5.选择使用企业自建平台
远东新世纪内部已导入AIFE 3.0(爱远东AI平台),维持AI协作效率的同时,也提供一个可信任的使用环境,让AI工具真正成为职场上的数位伙伴。
AI用得巧 别让输入变输出
生成式AI俨然成为现代职场的重要助力,从沟通到创作,几乎无所不包。但别忘了,它的「聪明」来自我们输入的每一笔资料。给得越多,效能越强;资讯越细,风险也越高。善用AI让工作更有效率,才能把时间用在更有价值的地方。毕竟,再聪明的工具,也需要使用者有智慧地驾驭。选对工具、用对方法,把风险阻挡在外,效率留给自己,才是通往AI时代最稳健的方式。
*图片来源:freepik
#



















