在他看来,人工智能当前的安全风险主要可以从“人”与“系统”这两个视角来剖析。
从人的视角来评估人工智能的安全问题,首当其冲就是技术的两面性问题,存在人工智能滥用的问题。
具体到人工智能的应用中来看,最为典型的代表就是深度伪造技术,它的负向应用风险持续加剧且已产生实质危害。
此次大赛的人脸识别破解演示,所揭示的正是系统的风险,它来自深度学习算法本身的脆弱性。
以深度学习算法为核心的第二代人工智能是个“黑盒子”,具有不可解释性,意味着系统存在结构性的漏洞,可能受到不可预知的风险,
典型的就比如现场演示的“神奇贴纸”,其实就是“对抗样本攻击”,通过在输入数据中添加扰动,使得系统作出错误判断。
这一漏洞在自动驾驶感知系统同样存在。正常情况下,在识别到路障、指示牌、行人等目标后,
自动驾驶车辆就会立即停车,但在目标物体上添加干扰图案后,车辆的感知系统可能会出错,径直撞上去。
大赛期间,《人工智能算力基础设施安全发展白皮书》发布。
其中提到,人工智能算力基础设施不同于传统的算力基础设施,既是“基础设施”又是“人工智能算力”也是“公共设施”,具有基建属性、技术属性、公共属性三重属性。
2024-11-20 17:30:30
2024-11-18 13:42:43
2024-11-15 13:28:15