跳转到帖子
在手机APP中查看

一个更好的浏览方法。了解更多

AIGC实战 - 只有干货的 AI 社区

主屏幕上的全屏APP,带有推送通知、徽章等。

在iOS和iPadOS上安装此APP
  1. 在Safari中轻敲分享图标
  2. 滚动菜单并轻敲添加到主屏幕
  3. 轻敲右上角的添加按钮。
在安卓上安装此APP
  1. 轻敲浏览器右上角的三个点菜单 (⋮) 。
  2. 轻敲添加到主屏幕安装APP
  3. 轻敲安装进行确认。

深度解析:稳健对抗输入挑战自动驾驶安全底线

在最近的研究中,我们发现了一种能够可靠地欺骗神经网络分类器的图像方法,即使这些图像从不同尺度和视角查看时依然有效。这一成果直接挑战了上周关于自动驾驶汽车难以被恶意攻击的观点。当时有人声称,由于自动驾驶汽车会从多个尺度、角度以及不同的视角捕捉图像,因此它们更难受到攻击。

研究团队通过精心设计对抗输入(Adversarial Inputs),即在不影响人类视觉感知的情况下对图片进行微小修改,使得神经网络无法正确识别这些图片。这种“稳健对抗输入”不仅适用于单一尺度的图像处理任务,还能广泛应用于多尺度、多角度以及不同视角的场景。

该发现揭示了当前自动驾驶汽车中使用的深度学习系统在面对精心设计的恶意输入时可能存在的脆弱性。尽管自动驾驶汽车能够从多个角度和多种尺度采集数据以增强其安全性和可靠性,但研究表明,即使是在这样的条件下,神经网络仍有可能被欺骗。

这一研究结果对于开发更加稳健且安全的人工智能技术具有重要意义。研究人员呼吁相关领域的专家们进一步加强对抗训练(Adversarial Training),提高模型的鲁棒性,并探索更多针对多视角、多尺度输入场景下的安全防御措施。

🔗 来源:Robust adversarial inputs (AI 严选)

用户反馈

推荐意见

暂无评论,快来抢沙发吧!

Background Picker
Customize Layout

我的帐户

导航

搜索

搜索

配置浏览器推送通知

Chrome (安卓)
  1. 轻敲地址栏旁的锁形图标。
  2. 轻敲权限 → 通知。
  3. 调整你的偏好。
Chrome (台式电脑)
  1. 点击地址栏中的挂锁图标。
  2. 选择网站设置。
  3. 找到通知选项,并调整你的偏好。