【博科园–科学科普(关注“博科园”看更多)】好吧,这么多的假设现在听起来太容易接受了——人类大脑在任何一天都能在机器上运行。真的吗?我们能比“卷积神经网络”更准确地解释世界吗?正如阿克曼所指出的那样:“当CNN(卷积神经网络)呈现图像时,它会看到一个矩形像素的静态网格。我们观察图像并正确地看到它们,比如人类和动物,CNNs看东西更像电脑。然而,一个研究小组提出了一些关于简单假设的问题,正在探索关于人类的对抗的例子。为使模型出错而设计的机器学习模型的输入是“对抗性的例子”。像这样的敌对的例子可能是危险的。
根据谷歌的研究页面,简单地说:Adversarial示例是设计用来欺骗机器学习模型的恶意输入。正如OpenAI的一篇博客文章所解释的那样:攻击者可以通过使用贴纸或油漆来攻击自动驾驶车辆,从而产生一个敌对的停车标志,车辆会将其解读为“yield”或其他标志。研究人员在谈到机器学习模型时,容易受到对抗性的例子的影响,图像的微小变化会导致计算机视觉模型出错,比如识别一辆校车作为鸵鸟。OpenAI的博客提到了对抗的例子,它代表了人工智能安全的一个具体问题。
话虽如此,那么对抗人类的对抗例子呢?这种情况会发生吗?这个团队甚至在IEEE光谱中说:决定试着弄清楚,同样的技术是否能欺骗人工神经网络,也能欺骗我们大脑内部的生物神经网络。在arXiv上,研究论文描述他们的工作是“欺骗人类和计算机视觉的对抗例子”。在这里创造了第一个用来愚弄人类的敌对的例子,他们发现在计算机视觉模型中强烈转移的对抗性例子影响了由时间限制的人类观察者做出的分类。(阿克曼指出,在这项研究中,人们只有60到70毫秒的时间来观察每个图像并做出决定)。
阿克曼展示了一张左边的猫的照片。在右边能分辨出这是同一只猫的照片,还是一张看起来像狗的图片?这两张图片的区别在于,右边的图片被一种算法稍微调整了一下,使得一种叫做卷积神经网络(CNN)的计算机模型很难分辨出它到底是什么。在这种情况下CNN认为它是在看狗而不是猫,但值得注意的是大多数人都是这么想的。什么?人类怎么能犯同样的错误呢?可以通过选择尽可能接近人类视觉系统的模型来实现对人类的对抗形象的发展。阿克曼说:但是到底是什么在扰乱人类的正确能力呢?研究人员指出我们的对抗性例子是为了愚弄人类的感知,所以我们应该谨慎使用主观的人类感知来理解它们是如何工作的。
研究者愿意对一些不同类别的修改进行归纳,包括“破坏物体边缘,特别是通过垂直于边缘的中频调制”;通过增加对比度和创建纹理边界来增强边缘,修改纹理,利用图像中暗区域的优势,小扰动的感知幅度可以更大。他们是如何测试的:有正常视力或矫正视力的受试者参与了实验。对于每一个群体来说,一个成功的对抗性形象能够欺骗人们选择错误的群体成员,当它实际上是一只猫的时候,就把它识别为一只狗,反之亦然。研究人员要求受试者对屏幕上出现的图像进行分类,按下一个响应时间框上的按钮。
在短时间内,这张图片显示出了CNNs感知世界和人类行为之间的差异。实验涉及三组图像:宠物(猫和狗)、蔬菜(卷心菜和花椰菜)和“危险”(蜘蛛和蛇)。阿克曼对研究结果的评论是:CNNs的感性操控与人为操纵之间存在重叠,这意味着机器学习技术有可能被用来微妙地改变像图片或视频这样的东西,从而改变我们对它们的认知(以及对它们的反应),而不让我们意识到发生了什么。我们必须要小心,并且要记住就像那些电脑一样,有时候我们太容易被愚弄了!