私隐专员钟丽玲:AI 存私隐风险 吁勿向聊天机械人披露个人资料

撰文: 何瑞芬
出版:更新:

现代科技日新月异,人工智能(AI)更为普及。个人资料私隐专员钟丽玲表示,聊天机械人AI虽然减轻不少工作,但资讯非百分百准确,甚至在回应中以出乎意料的方式泄漏个人资料。她指若向聊天机械人输入个人资料,AI或会储存其资料库,并且在回答其他人问题时披露;去年更有研究人员发现要求市场上某聊天机械人不断重复一些单字时,机械人会输出训练资料,当中包括姓名、电话、电邮地址等个人资料。

她说,私隐专员公署于今年初已就28间机构使用AI的情况完成循规审查,并未有发现任何违规情况,但市民仍要学会在AI中保障自己,不可随便透露任何个人资料。

私隐专员公署。(资料图片)

个人资料私隐专员钟丽玲在港台《香港家书》提到,AI虽然便利了工作,但所提供的资讯,并非百分百准确,甚至在回应中以出乎意料的方式泄漏个人资料。她举例指,若向提供予公司内部员工使用的聊天机械人输入自己个人资料,聊天机械人或会储存至它的资料库,在回答其他员工的问题时披露这些资料,构成私隐风险。

她说,去年有研究人员发现,当他们要求市场上某聊天机械人不断重复一些单字时,它虽然会先按指示重复该单字,但不久之后,它就会开始输出训练资料,当中包括姓名、电话、电邮地址等个人资料。

个人资料私隐专员钟丽玲表示,聊天机械人AI可以减轻不少工作,但资讯非百分百准确,甚至在回应中以出乎意料的方式泄漏个人资料。(私隐署提供)

钟丽玲表示,训练AI模型需要海量数据,随着AI模型不断“升呢”,它们对数据的“胃口”越来越大,甚至有报道指一个知名品牌的聊天机械人模型的开发者,从互联网上收集了多达3000亿字来训练模型,而该些数据很大机会包含个人资料。

钟又说,AI输出的资讯可能不准确,具歧视性或带有偏见,又引述美国研究指,许多人脸识别技术系统错误识别有色人种面孔的可能性比白人高达10至100倍,原因是训练数据中属有色人种的数据不足;若AI系统是用于诊断病人,但分析错误,导致医生“断错症”后果就不堪设想。据报道,美国有一名血癌病人被AI判断为患有败血症,需要进行抽血等医疗程序,结果却发现AI误诊,白白增加了病人感染风险和医药费。

钟丽玲续称,AI数据安全风险同样不容忽视,也有资料外泄风险,更可能因为黑客入侵或系统设定出错等不同原因而导致资料外泄。去年也有一宗牵涉AI聊天机械人的严重资料外泄事故,除了泄露了部分用户过往对话的标题,更泄露了用户的姓名、电邮地址和信用卡号码的部份数字。

网上现时有不少AI聊天机械人。图为xAI的Grok聊天机械人和ChatGPT标识。(Reuters)

私隐私隐专员公署今年初已就28间机构使用AI的情况完成循规审查,并未有发现任何违规情况,公署出版《人工智能(AI):个人资料保障模范框架》协助机构利用AI时遵从《私隐条例》的相关规定等。

她续称,作为不同AI工具的使用者要学懂保障自己及他人的个人资料私隐,当使用聊天机械人时不可随便透露任何个人资料。