21日至22日各国部长、大型科技公司CEO出席
人工智能技术发展速度迅猛
风险控制和“安全性”成为话题
拥有人工智能的军事管制中心在没有人类命令的情况下也能自行发射核武器吗?如果可以用于新药开发的人工智能制造出能够威胁数百万人生命的生物武器会怎么样?能否向在公司面试中淘汰自己的人工智能索赔?如果数字教科书检查学生的集中度,并以“不集中精力上课”为由给出低分,会怎么样?
生成型人工智能(AI)正在以惊人的速度发展。自己进行思考和学习、不受控制的“前沿AI”(Frontier AI)即将出现的情况下,多国呼吁共同制定人工智能规范并进行管理。以产业发展和国家安全为由加快开发AI的国家,还为在规制上掌握主导权而进行竞争。“人工智能首尔峰会”于21日至22日在韩国举行,紧张感也因此油然而生。
■世界正在为“人工智能规范”的主导权展开竞争
“人工智能首尔峰会”是去年在英国举行的“人工智能安全性峰会”的后续会议。第一天峰会以视频连线的方式举行,22日将在城北区韩国科学技术研究院(KIST)举行面对面会议——长官会议,并同时举办“人工智能全球论坛”,继续讨论人工智能安全性。德国、法国、西班牙、新加坡等部长级人士将出席,OpenAI和谷歌、微软、Antropic等大科技企业也将来到韩国。
在英国举行的首次会议吸引了人们的视线,包括美国、中国和欧盟在内的28个政府签署了《布莱切利宣言》,呼吁全球合作应对人工智能带来的风险。由于各国在限制范围和强度上意见不同,因此在第一次会议上只是共享了对危险性的认识,就制定安全性认证规范进行了原则性讨论。而在此次会议上,应该具认定为什么是危险的,以及如何控制,对此需要收集意见。
国际人工智能与伦理协会(IAAE)理事长全昌培(音)表示,“如果说以前人工智能的可靠性是问题,那么从去年年末开始安全性问题变得更加具体”,“围绕人工智能伦理和法制化的主导权,各国之间竞争非常激烈”。欧盟(EU)今年3月在世界上首次通过了包含严厉处罚规定的人工智能法;美国自去年11月以来接连发布人工智能相关“行政命令”;中国去年以一带一路国家为中心,提出了旨在防止技术滥用的“全球人工智能治理倡议”;联合国3月提出决议案,要求尽快制定有关安全使用人工智能的国际协议。
■“世界共同的‘安全规范’,韩国也要发声”
各国争先恐后地提出“安全的人工智能规范”的原因是什么?他们认为,只有支配人工智能“游戏规则”,才有利于本国经济和国家安全。如果人工智能学习所需的庞大数据被其他国家的垄断企业占据,也会对国家安全构成威胁。欧洲要求“透明性”,大科技企业要想提供被分类为高风险的人工智能服务,必须公开学习数据集等。美国通过行政命令要求外国企业在使用美国企业的人工智能技术时,向美国政府报告是否采取了安全措施,云服务提供商须向政府申报外国客户名单。
在各国政府的主导下,为建立人工智能安全性评价验证体系的“人工智能安全研究所”正在陆续建立中。美国、英国、日本、加拿大、新加坡5国设立了研究所,美国和英国研究所签署了合作协议,韩国政府也在推进设立研究所。韩国企业也要从长期来应对安全性要求的趋势。
科学技术信息通信部信息通信政策官严烈最近表示,“如果今后不成为安全的人工智能,(企业)也很难在市场上生存。只有成为可靠、安全的人工智能,才能将风险降至最低,生存下去”。
比起以处罚为重点的欧盟,韩国更应该注重自律限制。此次人工智能峰会与第一次不同,会议名称中去掉了安全性,其意义是“不仅是安全性,还包含创新和包容”。这可以解释为,这是为规范主导权的竞争造势,也是为了安抚人工智能后起之秀的不满,他们称“技术上推行严格的安全性和透明性限制,实则是为了打压后来居上的企业”。首尔女子大学信息保护系教授金明柱表示,“如果成为不可接受的限制,这将是中国等被排除在外的西方国家之间达成的协议”,“关键是找到不放弃使用人工智能的适当限制线”。也就是说,有多少国家将参加此次峰会,也可以预测今后的趋势。
郑浏炅 朴智英 记者