專家:馬斯克對人工智慧擔憂是真心的

編譯/莊閔棻

在億萬富翁馬斯克公開討論人工智慧的危險性,並將OpenAI與Twitter的數據切斷後,他自己也加大了對人工智慧的投資。長期以來,馬斯克似乎一直都認為自己在人工智慧的努力上,提供了比競爭對手更好、更安全的選擇。

示意圖:123RF

根據《紐約時報》報導,加州大學聖克魯茲分校的理論宇宙學家、反對人工智慧公開信背後的組織「生命未來研究所」(Future of Life Institute)的創始人Anthony Aguirre說:「他(馬斯克)認為人工智慧將是一個重要的轉折點,如果管理不善,它將是災難性。而像許多其他人一樣,他想知道我們要怎麼做。」

與馬斯克討論過人工智慧的專家認為,即使他自己也在建造這項技術,但他對這項技術的危險性的擔憂是真誠的。然而,也有其他人表示,他的反對立場是因為其他原因,並指出他為推廣其公司並從中獲利的努力。特斯拉人工智慧自動駕駛技術造成的車禍,已經成為攻擊馬斯克的一大重點。

  • OpenAI

在2014年麻省理工學院的一次航天活動中,馬斯克就曾表示,他對自己是否要建造人工智慧感到猶豫。他在回答觀眾問題時說:「我認為我們需要對人工智慧非常謹慎。有了人工智慧,我們就會召喚出惡魔。」那年冬天,在一場討論人工智慧的未來,由探討人類生存風險的生命未來研究所舉辦的私人會議上,馬斯克就發表了演講。他認為,人工智慧可能在不知不覺中跨入踏入領域,並宣布他將幫助資助該研究所1000萬美元。

而隨後在2015年夏天,在加州的一場晚宴上,馬斯克與幾位人工智慧研究人員和企業家私下會面。當年年底,他和其他幾位參加晚宴的人,包括時任新創資助公司Y Combinator總裁的Sam Altman和頂級人工智慧研究員Ilya Sutskever成立了OpenAI。

OpenAI是作為一個非營利組織成立的,馬斯克和其他人承諾提供10億美元的捐款。該實驗室發誓要「開源」其所有研究,也就是該公司將與世界分享其基礎軟體程式碼。馬斯克和Altman都認為,如果每個人,而不僅僅是Google和Facebook這樣的科技巨頭,都能獲得這項技術,那麼人工智慧的威脅將得到緩解。

  • 決裂

據報導,2018年初,馬斯克因為擔心該公司落後於搜尋引擎巨頭Google,而提出要直接控制OpenAI,並親自管理該公司的要求,但被OpenAI的其他創始人拒絕了,其中包括Altman;與此同時,馬斯克也與該組織的利益衝突越來越大。那時,他正在其電動車公司特斯拉建立自己的人工智慧項目Autopilot駕駛輔助技術。為此,他還從OpenAI挖來了一名關鍵員工。隨後馬斯克辭去了OpenAI董事會的職務,導致OpenAI失去了馬斯克未支付的9億美元資金

在ChatGPT於11月首次亮相後,馬斯克對OpenAI的批評越來越多。他說:「我們不希望這是一種來自地獄的利潤最大化惡魔。」馬斯克一再強調,人工智慧很危險。在先前的一次特斯拉投資者活動中,他呼籲監管機構保護社會免受人工智慧的影響。這位首席執行長還批評了微軟支持的OpenAI,說其「訓練人工智慧說謊」,並稱OpenAI現在已經成為一個「封閉」、「營利性」的組織,且「與微軟緊密結盟」。他還指責Google的聯合創始人Larry Page沒有認真對待人工智慧的安全性。

  • X.AI

在人工智慧勢不可擋的現在,馬斯克也正在加快他自己建造人工智慧的努力。據報導,不久前,馬斯克註冊了X.AI,一家人工智慧公司。根據註冊文件,該公司在內華達州註冊成立,文件中還列出了該公司的管理人員:馬斯克和他的財務管理人Jared Birchall。還有報導指出,為了為即將推出的生成式人工智慧產品提供動力,馬斯克已經購買了數千個圖形處理器(GPU)。

兩位知情人士說,OpenAI原本以每年約200萬美元的價格取得推特每則推文的數據,來幫助建立ChatGPT。但他們說,馬斯克認為這家人工智慧新創公司沒有付給推特足夠的錢。馬斯克還在在一條推文中說,推特將使用自己的數據,並按照ChatGPT的思路訓練技術。熟悉招聘情況的兩位人士說,推特已經從DeepMind聘請了兩名研究人員。

在先前的採訪中,馬斯克說,OpenAI將不再是對科技巨頭的一種制約力量。他說,他想建立TruthGPT,「一個最大限度地尋求真理的人工智慧,並試圖了解宇宙的本質。」馬斯克說,TruthGPT 「可能是通往安全的最佳途徑」,而且它 「不太可能消滅人類」。這位推特執行長表示,其將要推出的 TruthGPT 將會是一個公開透明的 AI 模型。他說:「我只是起步較晚。但我將嘗試創造第三種選擇。」

參考資料:The New York TimesReutersThe Verge

※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。

瀏覽 922 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button