AI未來的好與壞 西雅圖跨產業創新交流
編譯/黃竣凱
人工智慧 (AI)正在迅速重塑我們的世界,但對社會的全面影響仍不確定。 為了解決AI的前景和危險,來自企業、非營利組織和藝術等各個領域的代表,就在一場於西雅圖歷史與工業博物館舉辦的創新交流活動上,分享了對AI的未來及其對邊緣化社區的影響的見解,探討了AI在加速創造力、改善教育和醫療保健以及促進社會變革方面的潛力,並對AI開發和實施中固有的道德考慮和偏見表示擔憂。
該害怕AI還是控制它的人類?
對於AI來說,可怕的可能不是該技術本身,而是使用它的我們。Smartsheet 的 DEI 副總裁 Amelia Ransom 就警告說,「我並不害怕AI,我害怕的是人類。」
更多新聞:最好的開放式模型之一 Meta 強勢發布 Llama 3
如何向學生傳授AI?
為使學生能夠負責任地理解和利用科技,華盛頓州公共教育總監Chris Reykdal也強調了對學生進行AI教育的重要性,並表示,「為了賦予學生權力,他們必須了解這些演算法的內容,同時知道那個盒子裡裝的是什麼。」
誰可以使用AI模型和演算法?
為確保大家都能公平地使用AI模型和演算法,Google研究科學家Stefania Druga則強調了強大的資料治理的必要性,並表示,「資料治理問題是一個大問題,如何控制誰可以看到資料和模型,這方面還有很多工作要做。」
AI的生產和使用有哪些異化?
雖然AI無所不在,但對於很多人來說,這就像是一個又近又遠的技術,很難有全面的了解,西雅圖大學政治學副教授Onur Bakiner就表示,「許多個人和社群都對AI感到非常疏遠,並對其所做的事情感到困惑。」
AI偏見如何反映社會偏見?
Intentional Futures 教育總監Alison Gazarek則強調,為反映社會的多樣性和複雜性,有必要解決AI中的偏見,並表示,「我們必須為AI和支援AI的產品創造輸入,這些輸入本質上與我們一樣細緻入微、多樣化和複雜。」
如何為邊緣化社群建構AI?
華盛頓大學博士生兼學生主任Jay Cunningham 主張採用協作設計流程,讓邊緣社群參與塑造AI技術,並認為,只有與最邊緣化的群體合作設計技術,才能塑造一個更以正義為導向的未來。
會改變工作方式嗎?
Salesforce 的產品經理Orlando Lugo則是設想了一種由AI支援的重新構想的工作模式,挑戰傳統的就業觀念。他說,「每週工作 40 小時、為單一雇主工作,這一切都可以重新想像。」
如何幫助藝術家?
此外,AI也可以在藝術工作上幫很多忙。電影製片人 Baylee Sinner就強調了AI工具在加速創作過程方面的潛力,並表示,「這部電影的製作大約花了七年時間,但如果使用AI工具,可能會節省很多年的時間。 」
AI的人為因素是什麼?
波音公司專案經理Jamar Montgomery則強調了AI開發和使用中的「人為因素」,並敦促在技術應用中考慮道德因素,和Smartsheet 的 DEI 副總裁 Amelia Ransom一樣,Montgomery也指出,「我們並不害怕技術、害怕的是彼此,是人們決定該如何應用此技術。」
參考資料:geekwire
瀏覽 424 次