AI的監管問題|專家論點【張瑞雄】

作者:張瑞雄(前北商大校長,叡揚資訊數位轉型大使、中華和平發展智庫執行長)

自從ChatGPT問世以來,生成式AI的風潮席捲全球,但也引起很多人的關心使用這種AI是否足夠安全和隱私,例如一名年輕的比利時男子最近在與名為ELIZA的AI聊天機器人交談數週後自殺身亡,雖然AI不一定是主要原因,但一些因使用AI所導致的悲劇引發了人們呼籲要更好地保護公民和提高AI知識的必要性。

最近AI研究的先驅者和專家發表一封公開信,敦促主要的AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少六個月。公開信警告稱,具有「人類競爭智慧」的AI系統可能成為對人類的重大威脅。其中的風險包括AI超越人類,使我們變得無用,並控制文明的可能性。

這封信強調了制定一套全面的協議以管理AI的發展和部署的必要性。信中指出:「這些協議應確保遵循它們的系統是絕對安全的,這並不意味著要暫停整體的AI發展,僅僅是要從危險的競爭中節制,這種競爭推動出越來越強大和不可預測的黑盒子AI模型和新的能力。」

但我們真的可以實施一個全球適用的AI監管框架嗎?如果可以,那會是什麼樣子呢?在澳大利亞,政府已經成立了國家AI中心,以幫助發展國家的AI和數位生態系統。在這個中心下,有一個負責任的AI網路,並在法律和標準方面提供領導。

美國目前採取了一種撒手不管的策略,立法者並未在監管AI方面表現出任何緊迫性,而是依靠現有的法律來監管其使用。美國商會最近呼籲監管AI,以確保它不會傷害經濟成長或成為國家安全風險,但政府尚未採取任何行動。

在AI監管方面引領潮流的是歐盟,它正在加速建立一個《AI法案》。這部提議的法案將AI相關的風險分為三類:一是會產生「不可接受的風險」的AI應用將被禁止,例如在中國使用的政府社交評分系統;二是被視為「高風險」的AI應用,例如求職者評估的AI系統,將受到特定的法律約束;最後其他的AI應用基本上將不受監管。

對於以謹慎為主導去控制AI的做法,有許多支持和反對的論點。一方面,AI因其能夠生成各種形式的內容,處理單調的任務和檢測癌症等等而受到歡迎。另一方面,它可能會欺騙、持續存在偏見、抄襲。當然也有一些專家擔心人類的集體未來,怕不受監控的AI會想要控制人類,導致人類的滅絕。

暫停六個月開發更先進的AI系統可以讓人類稍微喘息,但AI競賽永遠不會停歇。而且迄今為止,世界上還沒有有效的全球性努力來對AI進行有意義的監管,全球性的暫停可能難以強制實施,雖然不是不可能。

公開信引發了政府角色的問題,目前政府在極具能力的AI工具的潛在危害方面很大程度上保持沉默。如果任何事情要改變,政府和國家和超越國家的監管機構將需要帶頭確保AI的責任和安全。正如信中所言,關於國家社會層面的AI決策不應該掌握在「未經選舉的科技領袖」手中。

最好政府應當與產業界合作,共同制定一個全球框架,制定全面的AI發展規則。這是保護人類免受AI危害、避免陷入激烈AI競爭局面的最佳途徑,這也可以避免政府和科技巨頭為AI未來的主導權而鬥爭的不利情況。

瀏覽 1,052 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button