人面辨识都认唔到?麻州理工研特殊T侐可在AI镜头前“隐形”

撰文: 李家梁
出版:更新:

人面辨识技术愈来愈普及,但其引发的私隐问题亦备受关注。不过“反攻”时刻到了,美国东北大学(Northeastern University)和麻州理工学院华森人工智慧实验室(MIT-IBM Watson AI Lab)近日开发出声称可以瞒骗人面辨识的T恤,意味可以避开人面辨识监控。

究竟这件印有黑白棋盘格子样式图案的T恤,为什么这样神奇呢?它是使用“生成对抗互联网(GAN, Generative Adversarial Network)”方法欺骗 AI。

(网上图片)

简单来说,“生成对抗网络”是机器学习的一种方法,主要由“生成神经网络”和“判别神经网络”组成,“生成神经网络”负责模拟生产出靠近真实资料的资料,交由“判别神经网络”与真实资料比对,透过两个网络相互对抗、不断调整各自网络参数平衡结果,提高辨识准确率。换言之,透过同样方法,也能找出可欺骗系统的图案。

其实早年已有研究显示,AI可以被附加在目标上的一些特殊图案“欺骗”,惟只要图案角度和形状变化,就会轻易被识破。今次突破点在于即使衣服图案随着人的姿势变化变形,仍能骗过 AI 系统。

(网上图片)

研究人员指出,常用于“欺骗”AI的对抗性转换(transformations)包括缩放、平移、旋转、亮度、噪音和饱和度调整等,但不足以模拟由人体姿势变化引起的变形,故他们采用称为薄板样条(TPS)的数据插值和平滑技术,利用仿射(保留点、直线、平面)和非仿射份量来建立坐标变换模型,令柔性物体也能模拟刚性物体的对抗性学习,“欺骗” AI 。

研究人员分别在现实和虚拟环境测试这种 T 恤,单人情况下准确率分别 63% 和 79%;如果多于1人,成功率就会下降。

不过,这种方法可能骗不了像亚马逊互联网服务、Google云端平台和微软Azure这些更复杂的对象和人员检测模型,但研究人员认为,这是迈向对抗性可穿戴设备的第一步。

未知不久将来是否真能突破人面辨识监控呢?