作戰機器人引爭議 自主武器系統陷道德困境
編譯/曲姵蓉
隨著自動作戰機器人身影頻繁出現,全球對於機器人戰場的焦慮達到最高點。「自主武器系統」(Lethal Autonomous Weapons Systems,LAWS)是目前較為成熟的人工智慧自動作戰系統,不需要人工操作即可自行運作,但是演算法偏差和不準確性可能導致災難性後果,正反方對於戰爭機器人論戰不休。
不具約束力的宣言
根據報導,美國國務院在馬里蘭大學主辦了一次研討會,討論《負責任軍事使用人工智慧與自主性的政治宣言》(Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy),共計上千名出席者,140多個國家代表共同參與討論宣言中的「自願約束措施」。目前已經有52個國家簽署宣言,但是該文件並不具備法律約束力,即使違反規定也不會受到懲罰。
更多新聞:可變形機器人演算法 將可進入人體提取細胞
LAWS可能失誤
眾所周知人工智慧不可能完美無瑕,它也會犯錯,但對於殺手機器人來說,一點失誤都極有可能造成毀滅性災難。隨著越來越多軍事單位開始使用機器人、機器狗作為戰場武器,開始有專家反思機器人與LAWS的準確性與失誤可能性。
人工智慧與道德的拉扯
2019年聯合國秘書長安東尼歐·古特瑞斯表示,人工智慧作戰機器人在政治上是不可接受的,在道德上令人反感,國際法應該禁止這項發展。專家也很擔憂人工智慧把平民誤認成戰鬥人員,最終波及無辜,「即使人工智慧領域已經有了數十年進步,仍然無法保證LAWS不會傷害平民。即使有解方,許多人的道德感也讓他們無法接受由演算法做出生死攸關的決定。」
雖然自動作戰機器人尚未成現實,但許多人都認同古特瑞斯的信念,認為人工智慧在戰爭中是站不住腳的,人工智慧本身牽涉的道德問題就是一個無解難題,若其落入非政府行為者或恐怖組織手中,那將是另一場噩夢。
資料來源:Techopedia
瀏覽 468 次