周志华:为什么要抵制韩国大学研发自主武器
原标题:周志华:为什么要抵制韩国大学研发自主武器
最近,韩国科学技术院大学与军工企业“韩华 Systems”合作研发自主武器,遭全球50多名AI学者联名抵制,南京大学周志华教授是 一名内地学者。最近,周教授接受了新智元采访,阐述了他对自主武器以及强人工智能的观点。
周志华:为什么要抵制韩国大学研发自主武器
最近,韩国科学技术院大学(KAIST)因为与军工企业“韩华 Systems”合作研发自主武器,遭到来自全球20多个国家的50多名AI学者联名抵制,其中就包括南京大学计算机系主任、人工智能学院院长周志华教授。
昨天,周志华教授接受了新智元采访,他认为,KAIST的做法,其危险之处在于让机器自己去决定是否进行对人类的毁灭性打击,就像公开信中所说的:如果这样的武器开发出来,自主武器将导致战争的第三次革命,战争将比以往任何时候都更容易发生并且更残忍。
同时,周志华教授还认为,迄今为止主流人工智能领域的研究,都不支持让机器拥有自主意识。霍金等人所担忧的,实质上就是强人工智能。
周志华:自主武器和一般意义上的智能武器不是同一个概念
在公开信中,学者们提到,KAIST与韩国武器公司Hanwha Systems合作开设了“国防和人工智能融合研究中心”,据网报道,该中心的目标是“开发应用于军事武器的人工智能(AI)技术,参与全球开发自主武器的竞争。”
周志华告诉新智元,大家反对 “autonomous weapons lacking meaningful human control”,即缺乏起码的人类控制的自主武器。“请注意’自主’,这和一般意义上的智能武器已经不是同一个概念。”
周志华说,一般的智能武器,或者叫“智能化武器”,其实早就有了,例如自动瞄准装置、导弹定位系统等等,但是最终做决定的都是人类。
而自主武器,是要把这个“决定权”交给机器,让机器自己去决定是否进行对人类的毁灭性打击,这太危险了。
正如公开信中所说:它们(自主武器)有可能成为恐怖分子的武器。暴君和恐怖分子可以利用它们对付无辜的人群,他们不会理会任何的道德限制。如果打开了这个潘多拉魔盒,将很难关闭。与过去禁用其他技术,例如禁用激光致盲武器(blinding lasers)一样,我们可以简单地决定不开发自主武器。我们敦促KAIST遵循这样的共识,致力于改善人们的生活,而不是伤害人的生命。
自主武器从伦理到理论上均不符合主流人工智能研究
周志华认为,自主武器首先在伦理上就是错误的。迄今主流人工智能领域的研究,都不支持让机器拥有自主意识。
《中国计算机学会通讯》今年初曾刊载周志华的《关于强人工智能》一文。在文中,周志华认为,强人工智能“不能做、不该做!”,并从技术上、研究方向上以及对人类的威胁上阐述研究人员不该碰触强人工智能的观点。
霍金、马斯克等人所担忧的“人工智能威胁人类”,实质上就是在担忧强人工智能。
其次,周志华认为,在理论体系上,从来就不是往“让机器做最终决定”这个方向去走的。
例如机器学习的理论基石、计算学习理论里面最基础的PAC模型,已经明确表明了我们所考虑的是“概率近似正确”, 不是考虑机器“ 正确”,甚至连近似正确都仅是概率意义上的。所以整个领域研究的基础,都是考虑在给人提供辅助,让人类自己去做更明智的决策。没有技术能保障“自主”机器不犯下对人类毁灭性的错误。