機器人可以用來干家務,也可以用于暴力目的。如何劃定機器人的用途界限?針對這個問題,人工智能(AI)領域產生了很大分歧。
韓國科學技術院(KAIST)是一所知名學府,擁有首屈一指的科學實驗室。從液態電池到疾病傳感器,他們開發了各式各樣的東西。如今,KAIST和韓華集團簽署協議,為后者研發人工智能武器。韓華集團曾無視聯合國禁令,開發“集束彈藥”這種毀滅性武器。如果加上人工智能,武器恐怕會更加致命。
目前,聯合國正在商討如何控制自主武器對國際安全造成的威脅,而KAIST卻在加速這類武器的軍備競賽,這非常令人失望。因此,50多位全球頂尖AI專家決定抵制此舉——他們宣布將拒絕和KAIST任何部門進行合作,直到KAIST保證絕不開發缺乏人類控制的自主武器。
對此,KAIST表示否認。院長Sung-Chul Shin發表聲明:
作為學術機構,我們高度重視人權和道德標準。KAIST將不會開展任何違背人類尊嚴的科研活動,包括缺乏人類控制的自主武器。
如今,硬件和軟件都發展得很快。許多專家擔心,人類遲早會開發出自己無法控制的東西。因此,埃隆·馬斯克、史蒂夫·沃茲尼亞克、斯蒂芬·霍金等名人呼吁政府和聯合國限制依靠人工智能系統運行的武器。如果導彈、火箭、炸彈能夠脫離人類控制而自行操作,那么后果會很恐怖——特別是落入壞人手里時。
如果開發出自主武器,那么它將成為戰爭史上的第三場革命。自主武器將使戰爭速度和戰爭規模達有史以來的最高水平。此外,它也可能成為恐怖分子的武器,擺脫道德約束,傷害無辜人民。潘多拉的魔盒一旦打開,便難以關閉。
聯合國曾多次召開會議,商討針對致命自主武器的禁令,然而收效甚微。原因在于:出于軍事目的,個別國家熱衷于開發這類技術;此外,私營企業也不想在人工智能方面被規章條例所束縛。盡管我們都知道,殺手機器人是件邪惡的東西;然而,誰也不知道該怎樣限制這類玩意的開發。人類陷入了一場所有人都不希望發生的軍備競賽。
目前,許多科學家希望出臺有關AI開發和應用的指導方針。不過,即便制定出相關方針,也很難保證所有人都遵守規則。