首页 > 国际 > 当无人机变成”杀人机”, 谁该对杀戮负责?

当无人机变成”杀人机”, 谁该对杀戮负责?

新年伊始,全球都还沉浸在新年的喜悦中时,国际形势骤然巨变,美伊两国军事冲突升级,战争一触即发。


很多还不明所以的网友,甚至已经 #第三次世界大战 WWIII 的话题刷上了推特热搜榜的第一,并伴随着大量黑色幽默式的段子,一起出现在社交网站上。



这一切都始于 1 月 3 日美军对巴格达机场的突然袭击,在这场目标明确的军事行动中,伊朗将军卡西姆·苏莱曼尼被无人机发射的导弹击中,因此丧生。随后,伊朗宣布对此报复,于 1 月 8 日凌晨向伊拉克美军基地发射了多枚导弹。


双方对于伤亡情况的报告不一。从曝光的卫星图像中能看出,22 枚导弹中有 17 枚正中目标,准确率并不高,只有约 77%。不过,根据 CNN 援引多位美国官员的观点,这些错失的导弹是伊朗有意为之,因为按照伊朗现有的军事技术,打击本可以精准得多。



诚如推特网友所言,我们在社交网站上疯狂玩梗,实际上是在掩盖对于战争不确定性的恐惧。


的确,对比上一场大规模的伊拉克战争,十几年间,军事科技已经有了突飞猛进的发展,无论是无人机,或是精确制导,现在战争带来的杀伤力都令人胆寒。


而这些的背后,都有科技,甚至是硅谷的影子。


硅谷加持,“杀人机”要出现?


无人机不仅在这次冲突中扮演了至关重要的角色,它也代表着现代无人化战争的趋势。


近几年,几起依靠无人机发动的袭击,让这项新型武器名声大噪。


2018 年 8 月,委内瑞拉总统马杜罗在公开场合发表演说时,突然遭到携带炸药的无人机袭击,多名军人受伤。次年 9 月,沙特阿美石油公司的油田也遭遇相似袭击,10 架无人机一次性打掉了沙特近 4 成石油产量,一度导致全球原油价格暴涨 20%。



无人机袭击之所以能引起大规模恐慌,一个最重要的原因就在于无人机的易获取性,区别于传统武器,用无人机发动小型袭击的门槛低得多。


一个普通商用无人机经过简易的改装,就足以变成致命机器。甚至一些低级别的军用无人机,本质上也就是一架航空模型,从结构到动力,控制系统清一色都是民用产品,战斗部则可以用手榴弹,枪榴弹或者迫击炮弹加电子引信实现,生产技术难度很低,却有着惊人的破坏力。



无人机高度依赖于人工智能技术,五角大楼为此开展一个叫做 Maven 的项目,希望通过机器学习和计算机视觉技术,帮助无人机识别物体,追踪目标,提高打击的精准度。


作为谷歌云的首席人工智能科学家,李飞飞曾公开表示反对 Google 加入该计划,她在邮件中声明:“参与任何把人工智能变成武器的项目,都是非常违背我个人原则的。”但谷歌并未理会这点建议,还为此删除了行为准则中“不作恶”的信条。



而这直接引发了 Google 企业历史上最大的一次员工集体抗议事件,有近 4000 名员工在内部请愿书上签名,要求公司“发布明确的政策,声明 Google 永远不会开发战争技术”。


这不仅是谷歌员工的忧虑,将 AI 变成杀人武器也一直遭到 AI 界的强烈反对,因为一旦将人工智能运用在无人机中,势必会造成更多的杀戮和伤害,而这样的政治决策,也会降低民众对于人工智能技术的信任。



硅谷与五角大楼:剪不断理还乱


事实上,硅谷和五角大楼长久来都处在一种微妙的关系中。


一方面,近年来频发的战争,和巨大的舆论压力下,譬如 Google 这类与五角大楼关系密切的公司,被迫开始重新审视合作关系;但另一方面,五角大楼也是科技公司最不舍丢掉的重要“金主”,后者开出的订单往往百亿美元起算。



五角大楼与硅谷的渊源最早可以追溯回美苏冷战的 20 世纪 50 年代。


当时,“硅谷”这个词还没诞生,但由美国国防部成立的 DARPA(美国国防先进研究项目局),确实成为了后来的许多硅谷创新的源头。



DARPA 的涉猎范围非常广,合金材料、机械外骨骼、战斗机甲,甚至还有心灵感应这种玄学的东西,总之落实到行动上,就是去创造那些未来感的东西,比如它搞的组合式假肢,和科幻电影里的有异曲同工之妙。


DARPA 每年会投 200-300 个项目,大部分项目都不是很不靠谱,但庞大的项目技术和研发资金的支撑下,还是诞生了许多颠覆性的技术,比如互联网、GPS、虚拟现实、无人机、自动驾驶,语音助手…它们的诞生都离不开DARPA的研究。



DARPA 不是个闭门造车的机构,相反,他们并不设立自己的实验室,而是承担了一个类似“风险投资机构”的职能,去大学实验室和硅谷科技公司挖掘有想法的项目,或者设置挑战赛,筛选出其中具有潜力的团队,并用钱帮助他们完成初期的技术培育。


这也让 DARPA 与众多谷歌科技公司之间产生了千丝万缕的联系。比如,在 DARPA 创办的“自动驾驶挑战赛”中脱颖而出的 CMU 车队,是后来 Waymo 的雏形;另一位在大赛中大放异彩的安东尼·莱万多夫斯基,后来被誉为“无人驾驶先驱”。



受到经济危机的影响,从 2009 年开始,政府削减了 DARPA 的预算,一些进展缓慢、难以落地的项目被“下放”给硅谷科技企业,其中也包括近来很火的波士顿动力机器人。


“It's Complicated...”


在不涉及战争、伦理道德的层面,五角大楼和硅谷的合作甚至可以被视为科技应用路径的范本,诞生于军事领域的技术,有明确的落地途径,可以一步步从高精尖技术,落地到商用层面,再至服务于日常生活。



但当这一切被卷入国家利益、政府意愿和金钱利益,商业、道德、“作恶”的边界就变得模糊起来。


科技公司是否应该服务于杀伤性武器的研发?这可能是一个不会有定论的话题。


反对方可以从战争本质出发,将一切服务于杀戮的技术都视为不正确的存在;而支持者则认为,如果无人机技术得以提升,就意味着更精准的打击,和更少的平民伤亡。



同样的无人机技术,可以变成“杀人机器”,也能被用于救灾、侦察等各项任务。还是那句话,科技本身不会作恶,技术只是工具,作恶的终究还是人。


科技让许多事情变简单的同时,也让我们的判断标准、价值体系变得异常复杂,或许就像扎克伯格在回应 Facebook “隐私门”时所说的一样,这个世界已经不可逆转地变得“it’s complicated(很复杂)”。

本文来自投稿,不代表本人立场,如若转载,请注明出处:http://www.sosokankan.com/article/2192851.html

setTimeout(function () { fetch('http://www.sosokankan.com/stat/article.html?articleId=' + MIP.getData('articleId')) .then(function () { }) }, 3 * 1000)