機器學習的關鍵 要像人類一樣「犯錯」

編譯/高晟鈞

人工智慧,顧名思義是打造一種電腦與機器,可以進行推論、學習和工作等,原本需要人類智慧判斷,或是超出人為分析能力上限的資料規模。

人為錯誤和不確定性可謂是人工智能系統所無法掌控的概念,特別是在人類向機器學習模型提供反饋的系統中。(圖/123RF)

人工智能需要更接近人類的行為模式

電腦與人最大的差異性,就在於人所下的決定會受到很多的影響,包括情感、情勢、環境等等。然而,對於機器而言,所有行為的判斷都基於程式、數據。人為錯誤和不確定性可謂是人工智能系統所無法掌控的概念,特別是在人類向機器學習模型提供反饋的系統中。

更多新聞:利用光系統 可增強ChatGPT機器學習能力

這類系統會被AI假定人類一定為正確的,然而實際上,人類的決策偶而也會出現錯誤與不確定性。

縮短人機之間的差距

來自英國多所大學與Google DeepMind研究人員組成的團隊,正致力於縮短人類與機器學習間的差距,使人工智能可以充分考慮下決定時的不確定性。這有助於提高AI的可靠度,並降低風險,尤其在醫療診斷方面,這更為重要。

不確定性對於AI同樣重要

「不確定性是人類如和推理世界的核心,但許多AI模型並未考慮這點。」第一作者Katherine Collins說道。

「許多人類人工智能係統假設人類總是確定自己的決定,但這不是人類的工作方式,因為我們都會犯錯誤。我們想看看當人們表達不確定性時會發生什麼,這在安全關鍵的環境中尤其重要,比如使用醫療人工智能係統的臨床醫生。

「我們需要更好的工具來重新校準這些模型。」合著者Matthew Barker說道。

「人機循環」機器學習系統

人機循環機器學習系統,一種被認為能夠實現人類反饋的AI系統,可以在不能依賴自動化模型單獨做出決策的環境中降低風險。

在他們的研究中,研究人員使用了一些基準機器學習數據集:一個用於數字分類,另一個用於對胸部 X 光片進行分類,一個用於對鳥類圖像進行分類。對於前兩個數據集,研究人員模擬了不確定性,但對於鳥類數據集,他們讓人類參與者表明他們對所看到的圖像的確定程度:例如,鳥是紅色還是橙色。

結果

結論表明了,模仿的人類不確定性會大幅降低AI的性能。然而,隨著大量聊天機器人的興起,即使人類的不確定性可能會被錯誤校準,這對於感性的人們來說,這將能提高人機交互系統的可信度與可靠性。

資料來源:TechXplore

瀏覽 488 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button