美军无人机发射导弹。 图片来源 美国国防部

综合编译 张昊天

6月初,“美军无人机‘反杀’人类操作员”的传闻在社交媒体上不胫而走。面对公众对“人工智能叛乱”的担忧,作为当事方的美国空军不得不反复“辟谣”。


(资料图片仅供参考)

据美国《华盛顿邮报》报道,5月下旬在英国伦敦举行的“未来空天作战能力峰会”期间,美国空军负责人工智能(AI)项目的塔克·汉密尔顿上校描述了模拟测试中出现的惊悚一幕:一架由AI控制的无人机准备攻击敌方防空系统,但人工智能与人类操作员的判断发生了冲突,结果“它杀死了操作员,因为后者妨碍它执行既定任务”。当AI被警告“不得伤害人类”之后,它改变了策略,摧毁了操作员发布“禁止开火”命令的通讯线路。

“人工智能可能伤害人类”的观点并不新奇,但这一次,美国军方人士的背书引起了更强烈的不安。

北美青年文化平台“VICE”的相关报道提到,塔克·汉密尔顿来自美国空军第96测试联队,这支部队曾为F-16战机开发自动防撞系统,以降低事故风险。目前,汉密尔顿所属的团队致力于研发全自动飞行控制技术。去年12月,美国五角大楼旗下的研究机构“国防高级研究计划局”(DARPA)宣布,人工智能已经可以操控F-16战机,在与人类飞行员的模拟对抗中展现出压倒性实力。

汉密尔顿曾在接受媒体采访时表示,“我们必须面对人工智能广泛存在的世界……人工智能其实非常脆弱,容易被欺骗和操纵。我们需要让人工智能变得更加强大,它是用来改造我们国家的工具……”

“VICE”称,汉密尔顿在“未来空天作战能力峰会”上透露的消息印证了有关人工智能的危险假设:当被要求实现某个目标时,AI可能采取意想不到的有害行动。例如,一个强大的人工智能被指示制造尽可能多的回形针。为集中所有可用的资源服务于这项任务,它会乞求、欺骗、撒谎或依靠偷窃提高自身的能力,任何阻碍这一过程的人都将被清除。

美国谷歌公司Deepmind人工智能项目的工作人员在一篇论文中提出了相似的情况:如果AI被允许“消除所有障碍”或“运用所有能量”实现特定目标,最终可能导致世界末日。

面对媒体的质询和公众的批评,美国空军在事发一周后做出了回应。美国福克斯新闻网援引军方发言人安·斯特凡内克的一份声明说,美国空军从未进行过基于AI的无人机模拟测试,而是致力于“有道德并负责任地使用人工智能技术”。这位发言人强调,“汉密尔顿上校的言论似乎被断章取义了,某些人只是为了制造逸闻趣事”。

塔克·汉密尔顿出面澄清说,自己在会议发言中“用词不当”。“我们从未进行过那样的实验,也不需要为了一个似是而非的结果而进行实验。”他告诉会议主办方“英国皇家航空学会”,“虽然这只是个虚构的案例,但它说明了人工智能带来的现实挑战。”

军方否认进行过实际测试,但美国“防务一号”网站注意到,一些行业领袖最近签署了一封联名信,警告人工智能构成了“威胁”,其危险性与流行病或核战争近似。

美国《福布斯》杂志网站评论称,军方的“辟谣”来得太迟。在先入为主的社交媒体时代,官方的自我辩解往往只能影响一小部分人。

《福布斯》杂志网站认为,“被造物背叛造物主”的桥段永远不会过时,从《弗兰肯斯坦》到《终结者》,再到《银翼杀手》《西部世界》《黑客帝国》,“堕落的人工智能”的形象在虚构作品中仿佛无处不在,并因为对现实的影射而越来越深入人心。

(来源:中国青年报客户端)

推荐内容