發生得太早 iPhone 配備ChatGPT引擔憂
編譯/夏洛特
儘管科技愛好者和產業觀察家一直熱切期待人工智慧(AI)進步,讓AI成為人類的隨身助手、改善生活品質,但蘋果將 ChatGPT 整合到 iPhone 中的協議也引起了一些擔憂,認為這發生的太快、太突然,大家可能還沒準備好。
人們仍對該技術不熟悉
事實上,對 ChatGPT 等生成式AI工具的需求,似乎並沒有像科技公司希望的那樣勢不可擋,儘管 ChatGPT 推出後每月活躍用戶數迅速達到 1 億,但其用戶成長已趨於穩定。儘管科技圈內興奮不已,但根據牛津大學最近的一項調查,有十分之四的英國人甚至沒有聽說過ChatGPT,而只有9% 的人每週或更頻繁地使用它。
更多新聞:更小更強大 Stability AI推最先進圖像生成工具
這項技術仍未做好準備
此外,許多專家認為,該技術本身仍存在重大缺陷,例如儘管OpenAI 最近演示了其 GPT-4o 模型,展示了多模態 AI 聊天機器人未來潛在功能,包括語言翻譯和對話互動,但該模型仍表現得過於囉唆,若AI在對話中不能簡潔明暸,使用者可能會感到不耐煩或困惑。展示中OpenAI的員工也不得不中途打斷AI插話,表明AI在對話控制方面仍有不足,若在實際應用中,使用者仍需要頻繁打斷或干預AI的對話流程,將大大削弱使用體驗。
此外,儘管展示了語言翻譯和機智對話的能力,但這些功能在真實應用中是否能穩定、高效地運行仍是未知數,說明AI可能仍需在更多情境下進行測試和調整,才能確保能應對多樣化的使用需求和場景。
容易出錯
AI仍容易出錯。基於用戶可能會將生成式AI工具擬人化,並高估它們的能力,可能會導致重大錯誤和錯誤訊息等嚴重問題,例如早先ChatGPT就曾錯誤地聲稱沒有以字母「K」開頭的非洲國家,甚至還影響到了 Google 搜尋結果,而更令人擔憂的是,當每個擁有iPhone 的人都開始使用AI時,就會有更多人開始依賴和信任它給出的任何答案。
偏見問題
最後, AI模型固有的偏見問題也讓很多人擔憂,基於這些模型是根據從網路上抓取的大型資料集進行訓練的,通常也會包含網路上與語言、種族和性別相關的各種差距和偏見,如AI工具 Google Gemini 就曾經因為生成不準確的二戰時期德國黑人士兵的圖像,引起大眾的廣泛批評,一但AI更廣泛被使用,可能會導致錯誤訊息和不平等現象長期存在、大肆傳播,進而引起社會問題。
參考資料:The Guardian
瀏覽 7,122 次