近日,多伦多大学研究人员通过“GPUHammer”攻击手段,对英伟达GPU发起物理攻击,导致经典神经网络模型准确率大幅下降,引发AI安全担忧。英伟达虽提出开启ECC保护等应对措施,但各有利弊。
攻击手段及影响
多伦多大学研究人员采用名为“GPUHammer”的攻击方式,并非针对软件bug,而是直接对英伟达GPU显存进行物理攻击。通过反复“敲打”显存,使数据0变1,1变0 ,最终导致数据比特翻转。受攻击的包括AlexNet、VGG、ResNet等经典神经网络,模型准确率从原本的80%暴跌至0.02%,跌幅高达99.9%。这一攻击对依赖AI的应用影响巨大,如自动驾驶可能认错交通标志,医疗AI可能出现误诊情况。在云服务器上,若有人恶意使用该攻击手段,AI模型将无法正常运行。
英伟达的应对措施及影响
针对这一严重问题,英伟达建议开启ECC保护,即通过添加“校验码”的方式,发现比特翻转并进行纠正。然而,开启ECC保护并非毫无代价,它会使GPU性能下降3%-10%,这引发了许多用户担心游戏体验会受到影响。同时,研究人员指出,不同GPU设计对此影响不同,像RTX 3080、A100就不存在此类问题。
其他防范技术及AI安全展望
除ECC保护外,英伟达的MIG和机密计算技术也能够防范此类攻击。此次“GPUHammer”事件表明,随着AI技术的发展,攻击手段也日益增多。这仅仅是个开始,AI安全问题必须引起高度重视,未来或许需要更多的技术手段来保障AI系统的安全稳定运行。
以上文章由 AI 总结生成