苹果公司拟推新软件 增侦测儿童色情图片功能

撰文: 洪怡霖
出版:更新:

美国苹果公司(Apple Inc.,AAPL)8月5日宣布,计划为iPhone推出一个旨在识别与报告收集儿童色情图像的新软件。

这一计划4日曝光后,苹果公司翌日证实这消息称,公司正准备为iPhone在保护儿童免遭性侵方面作出一系列改变,而这新软件是其中一环。

图为2019年9月20日,人们在澳大利亚悉尼一间苹果店等待购买最新型号的IPhone。(Getty)

苹果今年稍晚时间将向美国用户推出这个新软件。

公司称,系统将利用包括加密学和人工智能在内的新技术来侦测在iCloud储存的图片。

新软件在iPhone和iCloud内运行,如用户上传一定数量图片到iCloud,苹果公司将拿它们来搜寻,寻找它们与已知的儿童性虐待制品(child sexual abuse material,CSAM)是否有匹配的结果。倘发现这种情况,将向国家失踪和受虐儿童中心(National Center for Missing & Exploited Children,NCMEC)报告。

苹果公司称,今年稍后推出的iOS及iPadOS会有新加密学应用程式,协助减少CSAM在网上传播,同时保护用家私隐。