文本
整体 > 评论专栏

【社论】 反对可能引发灾难的“人工智能军备竞赛”

登录 : 2021-03-03 10:09 修改 : 2021-03-03 10:11

以杀人机器人为题材的电影《终结者5:创世纪》。(图片来源:派拉蒙影业)

3月1日,美国政府的咨询机构“人工智能国家安全委员会”向拜登总统和美国议会提交了一份报告书,敦促“美国和盟友应当拒绝世界范围内关于禁止人工智能自主武器系统的要求”。全世界普遍对不受人类控制即可主动杀人的“杀人机器人”倍感忧虑,应坚决反对以“中国威胁论”为由研发人工智能武器并举行军备竞赛的行为。

该委员会全体通过的这份报告书中主张,人工智能武器可以缩短做决定的时间、比人类更快作出军事反应,是保障美国军事优势地位的必备武器。报告书中承认“设计错误的人工智能系统可能增加战争危险”,却仍主张“如果我们不使用人工智能,面对拥有人工智能能力的敌人,将是一场灾难”。在长达750页的报告书中,大部分都在论述如何阻止中国想要在人工智能领域成为世界领头羊的野心。这份报告的核心主张是:为了保持美国对中国的军事优势,必须投入大规模预算研发人工智能,强化半导体生产能力。

远程操作无人机发动进攻的作战方法已经普及,此后各国政府正纷纷研发可以不依赖于人类的判断和操纵、能够自主做出判断并主动发起进攻的人工智能武器。参与研发被称为“杀人机器人”的致命性自主武器系统(LAWS)的企业集团普遍获取了丰厚利润。在制作这份报告书的委员会名单中,出现了谷歌前首席执行官埃里克•施密特以及亚马逊、微软、甲骨文等拿到过美国国防部巨额人工智能研发项目订单的大企业首脑的名字。

全世界的科学家和普通民众一直在警告开发人工智能武器的风险,并设法限制这些活动。2013年,主张全面禁止人工智能武器的国际非政府组织“禁止杀人机器人运动”成立;2015年,物理学家史蒂芬•霍金、苹果的联合创始人史蒂夫•沃兹尼亚克、特斯拉首席执行官埃隆•马斯克等1000多人共同签署了一份警告人工智能军备竞赛危险后果的书函;2018年,联合国秘书长古特雷斯呼吁通过国际法禁止杀人机器人;同一年,50位外国机器人学者联名抗议韩国科学技术院(KAIST)和韩华系统公司研发人工智能武器的做法,并宣布联合抵制与KAIST开展共同研究。

国际社会应团结一致,阻止相关国家不理会专家和民众的担忧、大搞人工智能军备竞赛,从而极有可能把人类置于灾难之中的行为。国际社会应当尽快制定国际规范,明确“机器杀人”的伦理和道德责任。

相关新闻