人工智慧真如此強大?專家指出兩大盲點

編譯/曲姵蓉

人工智慧(AI)的迅速進步引發了不少爭議,不少專家學者認為AI太過強大,可能會失控,導致人類面臨危險。(示意圖/123RF)

人工智慧(AI)的迅速進步引發了不少爭議,不少專家學者認為AI太過強大,可能會失控,導致人類面臨危險。然而,大部分人還是認為,AI真正的意義應該是幫助人類做出更好、更準確的決策。先不說AI未來發展的趨勢為何,就連現今被眾人認為是最靈活的AI工具以及ChatGPT等大型語言模型,都有其侷限性以及盲點。

根據報導,專家認為,AI系統目前有兩大盲點,首先是它們並不會、也沒辦法幫助決策者理解事件背後的因果關係和不確定性。其次,為了要創建足夠的資料庫,人類會盡可能去收集大量數據餵養AI系統,然而這可能會衍生更多的隱私、法律和倫理問題等風險。

針對第一點,專家就指出,ChatGPT和其他「基礎模型」一樣,皆是採用一種稱為「深度學習」(Deep Learning)的方法,主要是通過收集大量數據,識別其中的關聯,例如語言模式、圖像和文字描述之間的關係。因此,它們非常擅長預測或填補已知的事物之差距。然而,這種技術跟「創造」本質上是不同的,這種方法沒辦法產生知識,也沒辦法為決策者提供見解與意見。

專家以機器人登陸月球為例,他們指出,當開發商要開發一個「會被送往月球的機器人」時,他們一定會希望這個機器人能夠回答出「月球表面是甚麼樣子」這種問題,因此開發商可能會有意識地去賦予機器人一些相關知識、技術與經驗,讓機器人降落月球後,可以自己去面對並解決問題。

這種開發機器人的模式非常主流,大部分開發者都會先預設他們開發機器人的目標是甚麼,他們該賦予機器人甚麼知識與技術,才能夠達到這個目的,接著開發模型,將不同的資訊源彙整並收集數據,最後引進機器人內,接著重複同樣的動作,以完成機器人的創建與革新。換句話說,這也是人類「邊走邊學邊開發機器人」的必經過程。

總而言之,人工智慧的優勢在於,其可以建設一個演算法,來決定哪些訊息最有價值。自動化系統也可以用人類無法觸及的速度收集和儲存最大量的資訊。從學理上來看,這種模型具有足夠的解釋力與透明度,同時是存在一定邏輯,可以被反覆驗證的強大技術。然而,人類需要確實改革我們的法律,以監管並指導人工智慧系統正確的發展方向。甚至是為人工智慧技術的開發,選擇適當的工具。

資料來源:TechXplore

※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。

瀏覽 651 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button