人工智慧打造「自動武器殺手」 武器變聰明恐脫離控制

編譯/曲姵蓉

俄烏衝突和以巴衝突戰場顯示無人機機器人已經變成「機器人殺手」,甚至是另一種毀滅性武器。目前大多數軍用無人機和機器人由人類控制,但未來必定會出現人工智慧主導的「自動武器殺手」,引發各國擔憂。

科學家無法保證,自動武器系統會不會越來越聰明,超越安全機制自動出擊。示意圖。圖/123RF

自動武器系統太「聰明」 可能脫離人類的指揮監控

根據報導,全球先進大國正在開發自動武器系統,包括各種能夠自主操作的無人機、坦克、輪船和潛艇,意外引發另一波爭論。有些國家決定全面禁止自動武器系統,美國等大國則是要求只有在人類監督與授權的情況下才能使用自動武器系統。然而,令人最不安的是這些武器太「聰明」,可能脫離人類的指揮監控。

更多新聞:不到500美元超低成本無人機  可能改變國防工業

人工智慧支援「蜂群」作戰概念

報導指出,自動武器太「聰明」源於人類開發的「蜂群」作戰概念,為了增加自動武器系統的能力,實現蜂群作戰概念,科學家必須要開發最尖端的演算法,讓自動作戰系統相互通訊,確定攻擊目標與模式,提高攻擊的次數、協調性、精準度和速度。當武器有相互通訊並協調作戰能力時,它們有可能自己開發出更有效率但違反人類意願的打擊方式,造成平民損失,甚至違反國際法的戰爭道德。

故障安全機制仍無法百分百保證自動武器系統安全

專家強調,人類幾乎不可能預測如果多種自動武器系統脫離控制後會發生什麼事情,研發團隊只能盡可能避免意外發生,目前大多數的自動作戰系統都有配備故障安全機制,當武器系統與操作員的通訊中斷後將自動返回基地。然而,科學家仍無法保證自動武器系統會不會越來越聰明,超越安全機制自動出擊。

人工智慧是否支援戰爭成難題

美國高階軍事和外交官員堅持認為,人工智慧確實可以在不產生此類未來風險的情況下使用,並且美國只會使用完全充分保護措施的自動武器設備,以防止任何危險的不當行為。但其實許多著名的安全和技術官員都非常清楚未來自動武器發生緊急行為的潛在風險,反對在戰爭中貿然採用人工智慧。

資料來源:The Nation

瀏覽 352 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button