Skype前工程師:世界被屠宰機器人佔領 我們無法出門

編譯/夏洛特

曾幫助建立Skype的工程師 Jaan Tallinn表示,透過人工智慧(AI),我們可能只是在創造一個外面不再安全的世界,世界可能會被成群的屠宰機器人佔領,使我們無法出門。隨著AI技術的發展,Tallinn尤其擔心AI的軍事用途。Tallinn對屠宰機器人的想像來自於致力於降低人類所面臨的風險的「生命未來研究所」(Future of Life Institute)一部名為《屠宰機器人》的短片,該短片描繪出一個被AI驅動的軍事化殺手佔領的世界。

曾幫助建立Skype的工程師 Jaan Tallinn表示,透過人工智慧(AI),我們可能只是在創造一個外面不再安全的世界,世界可能會被成群的屠宰機器人佔領,使我們無法出門。(圖/123RF)

AI將使攻擊混亂而無法找到兇手

據外媒報導,Tallinn表示,將AI投入軍事使人類很難控制其發展,因為「我們正處於一場名副其實的軍備競賽中」。當我們處於軍備競賽中時,在思考如何採用這項新技術上,並沒有太多東西可以考慮,只需要關注其可以發揮效力和有戰略優勢的地方。Tallinn指出,最重要的是,AI戰爭可能會使人們找不到兇手,因為「任何有錢的人都可以生產和發布全自動戰爭中成群的小型無人機,而無需註明出處」。

更多新聞:超越ChatGPT!Google超強AI Gemini 今年秋天強勢來襲

AI的「奧本海默時刻」正在到來

不只Tallinn,許多AI研究人員、科技大亨、名人和普通人都對AI的發展感到擔憂。先前,著名導演克里斯多福·諾蘭(Christopher Nolan)就警告說,AI可能正在達到「奧本海默時刻」,也就是說,像奧本海默開發原子彈一樣,研究人員也正在質疑他們開發AI的道德問題,其是否可能會產生意想不到後果,以及他們的責任。

AI專家呼籲暫停開發以建立安全協議

今年早些時候,包括特斯拉執行長馬斯克、蘋果聯合創始人史蒂夫·沃茲尼克、Stability AI 首席執行長Emad Mostaque、Alphabet  AI實驗室DeepMind 的研究人員以及著名AI教授在內的數百人共同簽署「生命未來研究所」發表的一封公開信,呼籲暫停開發先進的AI六個月,以建立安全機制。

AI實驗室都在一場「失控的競賽」中

信中指出,為了開發和部署機器學習系統,AI實驗室目前正被鎖定在一場「失控的競賽」中,且「沒有人,甚至他們的創造者,都沒辦法能夠理解、預測或可靠地控制(人工智慧)」。而暫停將提供時間,讓人們為AI系統引入「共享安全協議」。 這些專家表示:「只有當我們確信其效果是積極的,其風險是可控的,世界才應該推進強大的AI系統的發展」。

參考資料:Insider

瀏覽 460 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button