当然,从以军角度看,释放AI参战的信息,也不排除有两个目的:第一,以军战斗力强,技术含量高,现在又在探索AI战争技术,具有碾压对手的手段;第二,AI针对性强,准确率高,以色列不是滥杀无辜,而是针对哈马斯,在尽可能减少平民伤亡。
但我总还是倒吸一口凉气。因为很简单,万一AI搞错了呢?比如,以色列的AI锁定了某个哈马斯领导人,万一锁定错了,那是不是意味着以军会杀错对象?还有,以军通过AI,探知了某个哈马斯据点,万一这是一个伪装据点,或者,AI建议用错了炸弹,是不是会造成大规模人员伤亡?
这次加沙之战,不排除以军使用AI,确实清除了一些哈马斯目标;但更要看到,以军对加沙的轰炸,已导致8000多人死亡,其中3000多人是儿童,这些未成年的孩子,不可能是哈马斯吧?
我看到,有AI专家就明确表达了忧虑,因为大数据是大数据,现实更错综复杂,一旦AI介入到战争,并决定人类生死,那“一个主要的风险,就是你击中了错误的目标,它可能造成平民伤亡,或者打击友军目标造成自相残杀”。
而且,AI还会产生虚假的自信。一个极具讽刺意味的例子:就在哈马斯发动致命攻击前一周,当时北约军事委员会主席到访以色列,以军将领特意带他到加沙边境,展示以军对加沙的AI监视。
用媒体的话说,从利用人脸识别软件,到头顶上的无人机,再到边境检查站和电子窃听技术,以色列对加沙的监视,被广泛认为技术含量最高也是最有效的努力。但最后呢?以军,以及以军的AI技术,还是没能挡住哈马斯发动突然袭击。袭击导致1400多以色列人死亡。
这也是以建国70多年来遭遇的最致命袭击。然后,就是以色列的猛烈报复,对加沙的狂轰滥炸,大量平民死亡,高精确度的AI又在哪里呢?我看到,美国《洛杉矶时报》专栏作家Brian Merchant就感慨,AI可能会加速或增强一个国家因愤怒而产生的破坏力,但算法中潜在的致命错误,却被战争迷雾所掩盖。
但AI正不可避免地介入到人类生活,乃至战争冲突。2017年11月,无人机公司StratoEnergytics,发布了一款微型无人机武器Stinger。这是一种颠覆性的新式武器,体积比成人掌心还小,自带一个小型炸弹,其搭载的摄像头,能进行人脸识别,一旦确认对方就是目标,可以一枪“爆头”。
2024-11-06 10:35:57
2024-11-05 09:49:44
2024-11-01 09:40:43
2024-10-31 10:17:45
2024-10-30 11:30:00
2024-10-28 09:23:04