生成式 AI 何時能帶來投資報酬
編譯/黃竣凱
隨著生成式人工智慧(AI)和大型語言模型(LLM)逐漸融入企業運作,許多高階主管和經理對這項技術充滿期待,然而,目前該項技術該如何真正實現商業回報,仍是一個模糊且容易誤解的領域,需要全新的方法和技能,與過去的技術浪潮大相徑庭。
生成式 AI 的投資報酬
據報導,儘管生成式 AI 常常能夠展示驚人的概念驗證,但將其商業化卻充滿困難,管理顧問公司凱捷(Capgemini )執行副總裁 Steve Jones 近期就指出,投資報酬(ROI)是將 20 至 40 個生成式 AI 解決方案投入生產的最大挑戰之一,投入的資金需用於測試和監控 LLM,確保這些模型的準確性。
更多新聞:我考過的 AI 證照,由淺到深學習生成式 AI|專家論點【黃婉中】
邪惡測試保持模型的準確性
為了確保 LLM 的穩定性,測試過程中甚至需要進行「邪惡」測試,Jones 建議,開發者或測試人員,應故意輸入錯誤的資訊來測試模型的反應,他分享了一個測試案例,他曾輸入一個虛構的商業模式,聲稱公司使用龍來運輸長途貨物,結果模型給出的回應,是關於如何與龍合作以及如何接受火災和安全訓練。
表明生成式 AI 雖然強大,但如果應用不當,可能會生成錯誤且誤導性的結果,因此,Jones 強調,生成式 AI 是一項容易被錯誤整合的技術,若未做好安全和風險管理,後果不堪設想。
未來兩到五年內的廣泛應用
預計在未來兩到五年內,生成式 AI將迅速成為主流,然而Jones 提到,當前的技術推廣有兩個主要觀點:一是大規模的單一模型將解決所有問題,但這過於樂觀且不現實;二則是每個軟體平台和雲端供應商都會激烈競爭,市場上會出現多樣的模型和解決方案。
適當使用避免資源浪費
Jones 進一步警告,不應將 LLM 用於不需要高效能運算的任務,否則將浪費大量資源,他認為,相當於花高昂律師費請律師為你撰寫生日卡片,因此企業應該尋找更便宜且有效的方式來使用 LLM,並且在出現問題時,能迅速停止該解決方案,並同步停用相關數據與資源。
多模型測試提升效率與效能
為了衡量生成式 AI 的效能,Jones 建議應對多個模型進行測試,以比較性能和回應品質,他指出,用戶應該有一套標準化的機制來捕捉各種指標,並在不同模型之間重播查詢,以找出更經濟的解決方案,由於這些模型會不斷更新,這種測試方法能確保企業使用最具成本效益的模型。
安全護欄防止生成式 AI 的誤用
生成式 AI 並不像傳統技術那樣出錯,它可能會根據輸入的錯誤資訊生成完全無關的內容,因此Jones 強調,必須為生成式 AI 設置安全護欄,防止它產生錯誤或無關的輸出,確保技術在實際應用中的可靠性和安全性。
生成式 AI 的發展潛力無窮,但它也伴隨著巨大挑戰。企業若要成功運用這項技術,必須在實施過程中保持謹慎,並不斷探索更高效的應用方式。
參考資料:zdnet
※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!
瀏覽 234 次