AI時代來臨 領導者如何迎接道德與戰略雙重考驗
編譯/黃竣凱
隨著AI時代到來,人工智慧 (AI) 迅速從一種新技術轉變為關鍵的商業工具,引發了從謹慎擁抱到徹底懷疑的一系列反應,隨著AI跨行業融合的加速,領導者面臨著緊迫的道德困境和策略要求,需要積極參與和深思熟慮的導航。在AI時代,負責任的領導需要注重領導的「全面性」,不僅需要關注技術創新和業務成就,也需要重視AI帶來的道德考驗和戰略挑戰。
對大局進行預先思考
達頓商學院(Darden School of Business)教授Mike Lenox 教授表示,從策略角度來看,負責任的AI領導力不僅涉及道德,還要對大局進行認真的「預先思考」,他說,「不要陷入立即採用AI的陷阱,需要思考為什麼要採用它,它有何幫助,希望它做什麼,如果在沒有戰略性思考的情況下應用AI,這就像提高鐵達尼號號引擎的效率一樣,只會更快地撞上冰山。」
更多新聞:新職位興起 首席AI長的職涯發展及職責
Lenox建議領導者,思考他們對客戶的獨特價值是什麼,以及AI的先進功能將如何幫助更好地提供這種價值,包括考慮要「自己創建一個模型、購買現有的AI模型,還是與AI公司合作共同創建一個模型。」
負責任的心態
達頓商學院的兼職講師Ben Leiner則表示,重要的是要記住,AI是「達到目的的手段,而不是目的本身」。Leiner表示,AI的發展可能產生一些危險的動機,讓公司以犧牲客戶利益為代價走捷徑,因此公司需要在訓練模型時設置保障措施,並深入了解並處理技術潛在的不良影響,「人們往往希望追求短期經濟收益,而不考慮長期社會後果或其他可能發揮作用的系統性問題,但使用生成式的AI公司。有義務了解他們正在部署的模型,以便在不會造成意外傷害或永久不平等的情況下使用。」
而對於領導者來說,要克服AI的陷阱,就需要一個超越現有監管或法律框架的明確的道德框架,因為「監管是對話的開始,而不是對話的結束,」Leiner表示,領導者詢問自己「如果現在推出產品,各個利害關係人可能會發生什麼最糟糕的事情,以及我如何處理這些可能性」非常重要。
風險管理與實驗驗證
達頓商學院院長Dean Scott Beardsley補充說,在結果不確定的情況下,公司可以放慢速度,透過運行試點或 beta 測試小規模實施新App,最大限度地減少出現問題時的影響。 達頓商學院數據科學與商業分析領域的主任Yael Grushka-Cockayne則表示,大學研究人員在這個過程中也有作用,可以在AI大規模推廣之前,幫助進行測試,尤其是在健康、教育或金融等高風險領域。
參考資料:Darden
瀏覽 307 次