危險在哪?《紐時》統整AI短、中、長期危害
編譯/莊閔棻
2023年3月下旬,超過1000名科技領袖、研究人員和其他從事人工智慧工作的專家學者,包括特斯拉首席執行長馬斯克都簽署了一封公開信,警告人工智慧技術「對社會和人類有深刻的風險」。
這封信代表了人工智慧專家對此技術日漸增加的擔憂。他們認為,最新的系統,特別是舊金山新創公司OpenAI推出的GPT-4技術,可能將對社會造成傷害,而未來的系統又會將更加危險。
因此,為了讓我們更了解人工智慧到底危險在哪,《紐約時報》就為我們做了一些統整。
- 短期風險:假消息
由於這些系統在傳遞資訊時看似會讓我們覺得它們有十足的把握,因此在使用這些系統時,要區分真假是很困難的。專家們就擔心,人們會依賴這些系統來獲得醫療建議、情感支持和用來做決定的各種資訊。
亞利桑那州立大學電腦科學教授Subbarao Kambhampati就說:「不能保證這些系統在你給它們的任何任務中都是正確的。」
因為這些系統能夠以類似人類的方式進行交談,所以它們的說服力非常強大。為此,專家們就很擔心,人們會濫用這些系統來傳播假消息。加拿大蒙特婁大學的教授和人工智慧研究員Yoshua Bengio說:「我們現在有了可以透過自然語言與我們互動的系統,但我們卻無法區分真假。」
- 中期風險:失去工作
專家們擔心,新的人工智慧可能成為工作的殺手。現在,像GPT-4這樣的技術往往可以成為人類員工的得力助手。但OpenAI也證實說,人工智慧確實可以取代一些員工。雖然說他們還不能完全從事律師、會計師或醫生的工作。但他們可能已經可以取代律師助理、個人助理和翻譯等文書處理性質的工作了。
根據OpenAI研究人員撰寫的一篇論文,估計美國80%的勞動力中,可能有至少10%的工作任務會受到大型語言模型的影響,而對於19%的員工,他們可能會有至少50%的工作份量受到影響。西雅圖的艾倫人工智慧研究所的創始首席執行長Oren Etzioni說:「有跡象顯示,那些制式化的工作將消失。」
- 長期風險:失去控制
一些簽署了這封信的人還認為,人工智慧可能會超出我們的控制範圍或摧毀人類。
先前,在接受採訪時,被稱為「人工智慧教父」的Geoffrey Hinton就指出,人工智慧驚人的進步速度,遠遠超出了他和其他人的預期。他說:「有些人相信這種東西實際上可以變得比人更聰明,但大多數人認為這是不可能的,我也認為是。我(原本)以為那是30到50年甚至更長時間的事。但很明顯,(現在)我不再這麼認為了。」為了能自由地談論人工智慧的風險,Hinton還離開了Google。Hinton甚至還說,他對他一部分人生裡的工作感到後悔,並特別指出人工智慧的危險性。
專家們擔心,隨著公司將大型語言模型插入其他網路服務中,這些系統若是可以自己生成程式碼,它們可能將獲得意想不到的權力。專家指出,如果開發商允許強大的人工智慧系統運行自己的程式碼,就會產生新的風險。對於人工智慧產生的結果,很多專家都承認說,他們也不知道其中的運作方式是什麼。
加州大學聖克魯茲分校的理論宇宙學家和物理學家、生命的未來研究所的聯合創始人Anthony Aguirre說:「如果事情真的起飛了,而沒有真正的治理,這些系統(變得)比我們原來想像的更強大,那麼事情就會變得非常、非常瘋狂。」
Etzioni博士則說,關於生存風險的討論是假設性的。但他說,其他風險,尤其是假消息,已經不再只是猜測了。他說:「現在我們有一些真正的問題,需要一些負責任的反應。它們可能需要監管和立法。」
參考資料:The New York Times、The New York Times
瀏覽 622 次