AI的透明性|專家論點【張瑞雄】

作者:張瑞雄(前北商大校長)

由於人工智慧(AI)的能力逐漸增強,世界各國政府都想辦法要訂定AI的管理辦法,免得AI的發展如脫韁野馬,導致不可預知的禍害。最近白宮宣布它已經說服了七名領先的AI公司自願承諾採取一系列措施來幫助改善AI的安全。

但值得注意的是,這些承諾僅適用於未來的系統,目前已公開的最先進系統並不適用,因此拜登總統的承諾並不能確保當前已經可用的模型,如ChatGPT,的使用不會造成傷害,例如製作惡意的軟體或起草虛假的消息。

一些承諾,例如公司承諾發布他們AI的系統功能、限制以及適當和不適當使用的領域,大部分都是已經在做的事情。此外由於這些承諾是自願的,如果這些公司偏離了承諾,政府除了公開譴責它們外,幾乎無法追究它們的責任。

更重要的是,一些承諾缺乏如何履行的具體細節。例如,七個參與者,亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和OpenAI,同意對其AI系統在發布之前進行廣泛的安全測試,包括測試生物安全和網路安全威脅。但承諾稱測試將「部分由獨立專家」進行,卻沒有明確說明這些獨立專家是誰,誰將決定他們的獨立性和專業知識,以及他們將進行哪些測試。

其中一項承諾涉及AI模型的權重,即應用於確定其輸出的神經網絡每個節點的數值係數。權重可以讓人們複製經過訓練的AI模型。 白宮承諾稱,這些公司將採取措施保護「專有且未發布的」模型權重不被竊取,並且「只有在有意且考慮到安全風險時才會發布」。

有趣的是,Meta已成為開源AI的主要支持者,其想法是推動該領域發展的最佳方式是讓AI模型(包括其所有權重)廣泛向公眾開放,而對其使用方式幾乎沒有限制。該公司已經公開發布了幾種強大的大型語言模型,稱為LLaMA和LLaMA 2。就最初的LLaMA而言,其全部權重都在網上洩露,據稱是來自Meta 最初與其共享AI軟體的研究合作夥伴之一。

但因為Meta的LLaMA模型的透明,就沒有辦法阻止有心人透過調整這些權重來移除Meta對LLaMA設置的任何保護措施。

這是開源AI的根本問題,沒有辦法保證它的安全,Meta無法逃避這個事實,白宮或其他監管機構也不能。不幸的是,拜登的所謂承諾並沒有解決這一困境。

但沒有開源的AI同樣有問題,當AI愈來愈多用於決定人生的事務時,受影響的人一定會想了解AI為何會做出這種決定,亦即AI要能夠解釋其答案的合理性,但如果AI不透明,權重係數不知道,我們是沒辦法解釋AI是如何得到答案的。

所以AI的監管只是起頭,大科技廠的承諾不可靠,因為他們的主要動機是為公司賺錢,如何透過公正的社會團體和第三方專家,訂出可執行且有用的AI監管辦法,比發展AI本身還要困難,或許我們可以問AI如何來監管AI呢!

瀏覽 1,631 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button