私隐公署AI保障个资框架 方保侨称现可行 惟日后有修订空间

撰文: 何倩瑜
出版:更新:

私隐专员公署昨日(11日)发表《人工智能(AI):个人资料保障模范框架》,涵盖4个范畴:希望机构使用人工智能系统时,进行风险评估及监督、降低个人资料外泄风险。香港资讯科技商会荣誉会长方保侨在电台节目上表示,公署发表的框架现阶段来说是可行的,但“法例永远落后于科技”,认为日后还会有修订空间。

香港资讯科技商会荣誉会长方保侨今日在港台节目《千禧年代》中表示,《人工智能(AI):个人资料保障模范框架》,现阶段来说是可行的,但“法例永远落后于科技”,加上AI属较新的技术,发展得快,认为日后在框架上还会有修订空间。

香港资讯科技商会荣誉会长方保侨今日在港台节目《千禧年代》中表示,框架现阶段来说是可行的,但“法例永远落后于科技”,加上AI属较新的技术,发展得快,认为日后在框架上还会有修订空间。

他表示,现时不论个人或公司,都有使用AI的趋势,AI的普及化,预料都会面对资料外泄等风险,方保侨建议在使用AI时可删除、转换,或模糊名字、住址等重要讯息,“当然最简单就系唔好比个人资料AI啦”。

AI的使用率越来越高,除了有资料外泄风险,亦会产生伦理及道德问题,方保侨举例指,现在不少图片都由AI生成,但版权则成为一个大问题,难以分辨版权持有者,“(版权问题)依加已经好严重”。

私隐专员公署昨日(11日)发表《人工智能(AI):个人资料保障模范框架》,并同日发表“懒人包”助企业、市民了解。(私隐专员公署图片)

私隐专员钟丽玲在节目中指,风险评估方面,公署建议针对采购过程或系统更新后,由跨部门团队作评估,此外也可按外泄资料风险程度,决定应否采取人为监控或介入,例如,机构使用AI提供资讯予客户作自动化的决策等,属风险较低;至于用AI协助疾病断症,属高风险,每个流程都应有该医护人员审核,以减低出错机会。

钟丽玲表示,框架亦提到涉及人工智能事故应变系统的6个步骤,先介定是否属于人工智能系统的事故,继而作出通报,防止扩大,作出调查以及如何复原等。她又说,如人工智能事故涉及私隐,亦有机会涉及道德问题,机构都要注意。

公署发表的“懒人包”,包括运用AI的企业要制定管理、监察系统。(私隐专员公署图片)