該不該被監管?人們對 AI 的 5大恐懼
編譯/于文浩
雖然人工智慧(AI)可以為我們的生活帶來許多便利,並使我們更有效率,但隨著AI快速發展,許多專家都認為,AI與核戰爭和全球流行病一樣危險。該技術的一些早期創造者就指出, AI的發展將帶領我們將朝人類毀滅的方向前進;其他人則警告說,AI迫切需要監管。
為了讓大家更了解AI到底有哪些問題,以下是專家們擔心的五個AI重大問題:
- 偏見
隨著越來越多人開始使用AI,人們越來越關注AI系統中的偏見問題,及其可能導致的導致各種後果。AI公司Skymind聯合創始人兼首席執行長 Chris Nicholson 就說:「AI演算法的好壞取決於它們所訓練的數據。 因此,如果數據中包含偏見,那AI所做的預測就會反映該數據內容。如,如果一家公司好幾十年都只提拔擁有常春藤盟校學位的白人男性,那訓練來識別未來領導人才的演算法就可能會只關注同一類型的個人,而忽略不屬於該群體的人」。
- 黑盒子
Nicholson說:「雖然最先進的AI可以對數據做出最準確的預測,但我們也最難理解它們為何做出這樣的預測」。而這有時被稱為AI的「黑盒子」,指的是人們缺乏對系統決策的可見性。Nicholson指出:「在很多情況下,在很多公司,人們需要知道為什麼要做某事,而在受到嚴格監管的行業尤其如此。以醫療保健為例。 你不會希望演算法在不知道為什麼做出該決定的情況下,對患者做出診斷或治療」。
- 錯誤的決定
至今為止,關於我們如何評估AI結果的準確性和有效性,以及如果做出錯誤的選擇會發生什麼事都是我們在面對AI時要面對的嚴重問題。物聯網公司Very的工程總監 Jeff McGehee就指出,許多人擔心AI會做出錯誤的決定,而如果無法為AI給出「好」決策下定義的話,就會讓人難以分辨,甚至導致大家在工作上因爲不信任AI而延誤工作,或是做出可能造成危害的決定。
- 隱私安全
McGehee 也認為,AI會讓人們失去隱私和匿名性。他表示,雖然AI從業者普遍認為,一旦機器學習模型經過訓練,使AI能夠進行預測的參數,將不會再帶有包含任何可追蹤的訓練數據。但McGehee指出,最近出現一種可以讓有心人士,藉由查看經過訓練的機器學習模型,並透過推論找出所有資料的技術。這將引發人們的隱私安全問題。
- 失業
大多數專家都認為,AI將會影響廣泛的工作。加拿大蒙特婁AI能倫理研究所創始人 Abhishek Gupta 表示,由AI引發的失業前景是「最現實」、「最直接」,或許也是「最緊迫」的人類生存威脅,因為這將讓人們失去生存方法、目標與自我認同。
參考資料:Enterprisers Project
瀏覽 751 次