还有其他支持自主武器的观点,例如,有人认为,让机器人去从事卑鄙的战争事业,总比让人类去打仗更好:战争的赢家往往是拥有更优秀机器人的一方(当然,问题就变成了如何确保我们拥有更好的机器人)。
我还听过这样的论点,即反对自主武器比反对常规战争更没有道德。例如,当一架B-52轰炸机在5万英尺的高空飞行,释放炸弹的时候,负责释放炸弹的投弹手并不清楚他们投下的32吨的炸弹将落到何处,也不知道它会落到谁身上。那么,为什么人们要反对能够精准杀人的自主武器,而不反对这样随意杀戮的常规武器轰炸?我想,答案是我们应该同时反对它们。但实际上,常规轰炸确实没有像自主武器那样引起这么多的道德争议。
不管人们试图构建什么有利的论据,我必须坚定地说,国际人工智能界的大多数研究人员都强烈反对开发致命的自主武器。关于自主武器可能被设计成比人类士兵更合乎道德的论点并没有被广泛接受。理论上这是一个有建设性的想法,但实际上我们根本不知道怎么去做,而且也不可能很快成为现实(见上一章的讨论)。虽然我敢说,提出这一论点的初衷是最好的,但令人担心的是,它已被那些想现在就制造自主武器的人所劫持。