為搶快而犧牲謹慎!微軟和Google不顧警告硬推AI
編譯/莊閔棻
兩大科技巨頭微軟和Google,共有15名現任和前任員工、以及內部文件指出,ChatGPT令人驚訝的成功,讓微軟和Google願意做一切來確保其技術不會造成社會問題,並為其多年來制定的道德準則,承擔更大的風險。
根據《紐約時報》報導,先前,兩名審查公司人工智慧產品的Google員工,就因為認為其會產生不準確和危險的內容,因此試圖阻止Google推出人工智慧聊天機器人;而在ChatGPT推出前,其他員工也在微軟提出了類似的擔憂。不過,即使如此,這些公司還是爭先恐後的發布了他們的聊天機器人。
在上個月發出的一封內部郵件中,微軟公司的一位技術主管Sam Schillace就具體說明了使用新人工智慧的緊迫性。他寫道:「在這個時刻,擔心那些以後可以修復的東西是一個絕對致命的錯誤。」他寫道,當科技行業突然轉向一種新的技術時,第一個推出產品的公司 可能「是長期的贏家,只因為他們先開始了」,而「有時差異是以週為單位衡量的。」
然而,事實上,反對的聲音似乎比支持更多。據參與微軟人工智慧工作的三位人士稱,儘管有一個「透明」原則,但研究聊天機器人的道德專家並沒有得到,關於 OpenAI 是使用哪些數據開發其系統的答案。一位知情人士表示,一些人認為將聊天機器人加到到搜尋引擎中是一個特別糟糕的主意,因為它有時會提供不真實的細節。
Google前任研究人員El Mahdi El Mhamdi也指出,現代人工智慧的風險「高度超過」其好處。他補充說:「這是不成熟的部署」。他警告,最大的人工智慧模型更容易受到網路安全攻擊,並帶來不尋常的隱私風險,因為它們很可能訪問了儲存在網路上的所有私人數據。El Mhamdi因為「研究審查制度」而從Google辭職。當Google要求他對一篇人工智慧侵犯隱私的論文進行修改時,他拒絕了。
Google的創新負責小組主任Jen Gennai的團隊也表達了對聊天機器人的擔憂。他們表示,人工智慧可能會產生假消息,傷害對它們有感情的用戶,並透過網上的大規模散播造成「技術促進的暴力」。3月,Gennai團隊的兩名審查員提交了他們對Bard的風險評估,並建議阻止其發布。儘管有保障措施,他們認為聊天機器人還沒有準備好。不過,Gennai修改了那份文件。這些人表示,她刪除了建議,並淡化了Bard風險的嚴重性。
Gennai表示,由於Bard是一項實驗,審查人員不應該對是否繼續進行審查進行評判。她說她 「糾正了不準確的假設,並實際上增加了更多需要考慮的風險和危害。」Google表示,由於這些爭論,他們將Bard作為一個有限的實驗發布,Gennai女士說,持續的培訓、防護和免責聲明使聊天機器人更加安全。
參考資料:nytimes
瀏覽 12,178 次