OpenAI  三大主管警告:AI需要專門監管機構

編譯/莊閔棻

人工智慧的創新速度已經太快,以至於我們不能指望現有的機構能夠充分控制這項技術。(示意圖/123RF)

為了對人工智慧的監管提出意見,在OpenAI的公司部落格一篇文章中,OpenAI的創始人Sam Altman、總裁Greg Brockman和首席科學家Ilya Sutskeve共同撰寫了一篇名為《超級智慧的治理》(Governance of superintelligence)的文章。他們認為,在發展人工智慧的同時,我們需要建立一個專門的監管機構,並對超過一定能力的人工智慧做出限制。

根據《Tech Crunch》的報導,他們表示,人工智慧的創新速度已經太快,以至於我們不能指望現有的機構能夠充分控制這項技術。他們認為,鑑於我們現在看到的情況,可以想像在未來十年內,人工智慧系統將在大多數領域超越專家技能水平,並進行與當今最大的公司之一一樣多的生產活動。

在這篇文章中,三名公司主管承認人工智慧不會自己管理自己,因此人類、政府必須介入。他們寫道:「首先,我們需要在領先的開發工作中進行某種程度的協調,以確保超級智慧的發展,並能以一種既能讓我們保持安全,又能幫助這些系統與社會順利整合的方式進行。」

他們指出,作為一個起點,我們可能需要一個類似於「國際原子能總署」(IAEA)的機構來管理超級智慧。並寫道:「且任何超過一定能力或計算資源門檻的努力,都需要接受一個國際權威機構的檢查,要求進行審查,看看是否符合安全標準,並對部署程度和安全級別進行限制等。」

OpenAI的貼文指出,追蹤用於人工智慧研究的計算能力和能源使用情況,只是相對較少的客觀措施之一。雖然可能很規定人工智慧應該或不應該被用於哪,但用於人工智慧的資源應該像其他行業一樣受到監督和審查。不過,OpenAI也建議,為了避免扼殺創新的綠芽,較小的公司可以豁免。

在接受《衛報》採訪時,人工智慧研究員和評論家Timnit Gebru也說了類似的話。他表示:「除非有外部壓力要求做一些不同的事情,否則公司是不會自我監管的。我們需要監管,我們需要比單純的利潤動機更好的東西。」

最後,雖然OpenAI的領導人說他們支持踩剎車,但因為人工智慧可以「改善我們的社會」,因此,他們不想放棄這個機會。他們表示:「世界面臨許多問題,我們需要更多的幫助來解決; 這項技術可以改善我們的社會,每個人使用這些新工具的創造性能力肯定會讓我們感到驚訝。(其帶來的)經濟增長和生活品質的提高將是驚人的。」
參考資料:OpenAITech CrunchThe Guardian

※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。

瀏覽 344 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button