Google DeepMind「機器人憲法」 推動負責任的機器人研究

編譯/曲姵蓉

Google DeepMind近期在其新的Google機器人計畫中,宣布了「機器人憲法」(Robot Constitution),這項規定以以撒·阿西莫夫的「機器人三定律」為基礎,旨在為人工智慧的決策過程與設備打造做出貢獻,有效管理崛起中的人工智慧與機器人大軍。

Google DeepMind的「機器人憲法」是「分層安全協定」系統的一部分,它規定了機器人不能傷害人類。(圖/截取自 DeepMind)

Google DeepMind推出「機器人憲法」

根據報導,Google DeepMind機器人團隊近期發文表示,他們想要塑造尖端機器人的未來,但在機器人研發、測試以及融入人類社會的過程中,開發者必須「負起責任」,證明機器人的安全性。各大機器人公司必須要投入大量的研究,確保機器人不會傷害人類,這也是他們要推出「機器人憲法」的重要原因。

更多新聞:通用型機器人EVE 採用GPT-4可廣泛使用

「機器人憲法」設定機器人安全標準

報導指出,Google DeepMind的「機器人憲法」是「分層安全協定」(Layered Safety Protocols)系統的一部分,它規定了機器人不能傷害人類,同時也不能執行涉及人類、動物、尖銳物體或電器的任務。除此之外,也額外針對機器的程式進行設計,當檢測到機器的關節力量超過一個標準時,會自動停止機器人的運作。這些做法都是要確保機器人是處於人類主管的管制視線中,即使主管沒有馬上發現,並帶有物理終止開關。

輔助機器人未來可期

如果Google DeepMind的預想成真,那麼我們的未來家庭和辦公室都會充滿各類型輔助機器人,幫我們打掃房子、做飯,甚至協助維護居家安全。為了達成這個理想,「機器人憲法」是一個非常重要的因素,而各大科技公司也持續針對大型語言模型和機器人神經網路系統進行修正,加強機器人的應變決策能力。

資料來源:GizmodoDeepMind

瀏覽 359 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button