OpenAI的事件和未來|專家論點【張瑞雄】

作者:張瑞雄(前北商大校長)

OpenAI最近發生的戲劇性事件說明了開發AI等可能改變世界的技術所帶來的巨大責任和複雜挑戰,OpenAI在AI能力方面領先於Google和Meta等競爭對手,其聊天機器人ChatGPT在極短的時間內吸引了大量的用戶和收入,但是該公司的治理和問責結構在壓力下失敗了。

執行長Altman的突然、不明原因的被解僱引發了混亂,OpenAI面臨著失去才華橫溢的員工和領導階層的風險,這可能會阻礙或逆轉有一天可能超越人類智慧的系統的開發。微軟隨後採取的挽救合作關係的措施是因為微軟依賴OpenAI來為其AI產品提供動力,但號稱非營利組織的OpenAI的透明度和公正性理念已經受到質疑。

這部戲劇暴露了OpenAI獨特的公司結構的缺陷,作為AI安全領域的先驅,OpenAI在其非營利章程中體現了「AI應該造福全人類」等的崇高原則。然而實際上ChatGPT等相關產品卻在朝營利的大路上邁進,其優先考慮的是投資者和客戶,而不是研究人員對AI安全的警告,董事會感覺掌握不了公司的研發和營利的走向,導致Altman的被炒魷魚,從而危及公司的研究進展、員工和微軟的利益。

未來OpenAI的結構和治理可能會迅速改變,OpenAI會不會變得像一家傳統的公司?投資者要求更多的控制權,財務需求佔據主導地位,透明度和公正性等非營利理想可能會進一步被邊緣化。

OpenAI混亂的治理崩潰源於監管AI這強大技術的先天困難,不過歷史的例子證明此類創新所帶來的治理挑戰是可以克服的。例如儘管經歷了最初的動盪,對核能技術和生物技術等20世紀突破性成果的治理逐漸發展成為國際公認的規範,開發商、政策制定者和民間社會之間建立了共識,以平衡風險管理與社會公益。

為了隨著技術的進步建立健全的AI治理,OpenAI必須致力於透明度、利害關係人對話和風險的監控和舒緩,未來的利潤應該資助更多的AI安全研究。更新的監督機制應該利用機器學習、法律、心理學和倫理學等不同的專業知識,並避免狹隘的企業利益來主導一切。當然光有治理機制無法消除人性固有的問題,例如個人、政治和財務上的偏見。但OpenAI公正性和透明度的下降並非不可避免,憑藉著謹慎和遠見,平衡的監督可以融入到創新的組織中。

還好OpenAI避免了看起來會徹底崩潰的情況,這很重要,因為OpenAI目前是該領域無可爭議的領導者。 在開發AI能力的競賽中,OpenAI 遠遠領先其競爭對手。自一年前推出以來,ChatGPT每月吸引了超過1億用戶,現在每年有10億美元的收入,很難想像如果OpenAI的所有員工都辭職,OpenAI和AI的未來發展將會變得如何?AI的歷史肯定將會有所不同。

瀏覽 2,012 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button