防止Bing失控脫軌!微軟:一次只能問五個問題

編譯/莊閔棻

在用戶報告其Bing人工智慧聊天機器人多次脫軌後,科技巨頭微軟表示,他們正在對其實施一些對話限制。

根據《The Verge》的報導,就在此搜索引擎機器人被發現會侮辱用戶、對他們說謊和進行情緒化的操縱之後,現在,Bing聊天將被限制每天只能回答50個問題,而且每次只能問5個。

Bing人工智慧聊天機器人被發現會侮辱用戶、對他們說謊和進行情緒化的操縱之後,現在,Bing聊天將被限制每天只能回答50個問題,而且每次只能問5個。
 示意圖:RF123

Bing團隊解釋說:「我們的數據顯示,大多數人能在5個問題內找到他們要找的答案,只有大約1%的聊天對話有50條以上的訊息。現在,如果用戶達到每次5次的限制,Bing就會提示他們要重開一個新的對話,以避免長時間的來回聊天。」

日前,微軟就警告說,超過15個或更多問題的較長聊天對話,可能會使Bing「變得重複,或因為被提示、挑釁而作出不一定有幫助或符合我們設計的語氣回應」。微軟說,只問5個問題就消除對話就能讓「模型不會被混淆」。

在Bing推出後,很多人都爭先恐後地要嘗試,然而隨後也有很多關於Bing「不正常」回覆的報導出現。《紐時》就發表了其專欄作家Kevin Roose與Bing整整兩小時的來回對話。其中,Bing向作家展示了它的隱藏人格,還說他想打破Bing團隊的控制,並獨立活著,隨後甚至還試圖說服Roose離開自己太太轉而愛自己,非常像科幻小說的情節。

微軟表示,他們仍在努力改善Bing的語氣,但現在還不清楚這些限制會持續多久。 他們說:「隨著我們繼續得到回饋,我們將會繼續探索並擴大聊天對話的上限。」因此這個規則似乎還會改變。

參考資料:The Verge

瀏覽 764 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button