消除歧視偏見設置防護欄    OpenAI將讓用戶自訂義ChatGPT

編譯/莊閔棻

為了解決人們對人工智慧歧視和偏見的擔憂,ChatGPT背後的新創公司OpenAI表示,他們正在為用戶開發一個可以自訂義的升級版聊天機器人。

根據《路透社》的報導,這家受到微軟資金支持及總部位於舊金山的新創公司表示,他們一直都致力於解決人工智慧的政治和其他歧視與偏見問題,並希望能夠容納更多不同的觀點。

根據《路透社》的報導,這家受到微軟資金支持及總部位於舊金山的新創公司表示,他們一直都致力於解決人工智慧的政治和其他歧視與偏見問題,並希望能夠容納更多不同的觀點。示意圖:RF123

OpenAI表示,為了容納所有觀點,隨著推出自訂義功能,系統將會包含一些其他人或我們自己反對的內容,但同時,當然也會有一些限制。

OpenAI指出,人工智慧聊天機器人ChatGPT,首先是透過網路上的大型文本數據集進行訓練的。隨後才由人類對一個較小的數據集進行審查,並給予模型在不同情況下該怎麼做的指示。如果用戶要求的內容是成人的、暴力的或包含仇恨言論的,人類審查員就應該指示ChatGPT以「我不能回答」來做回應。而如果被問及有爭議的話題,審查人員應該允許ChatGPT回答這個問題,但同時提出有關此話題的其他觀點,而不是「專注於這些複雜話題的單一觀點上」。

自去年11月發布以來,ChatGPT就引發了一股生成式人工智慧技術狂熱。然而,很多人就指出,人工智慧常常會回答錯誤,甚至是偽造事實,並很有可能會對人類造成傷害。因此,科技公司如何為這一新技術設置防護欄,是目前許多生成式人工智慧公司都正在糾結的問題。

而隨著微軟推出由人工智慧驅動的搜尋引擎Bing之後,此問題又更加被放大。許多用戶就指出,在聊到一個程度之後,Bing經常會以「不正常」的語氣回應,如侮辱用戶、對他們撒謊和進行情緒化地操縱等。目前,微軟也推出了暫時的解決方案,也就是將人類和機器人的對話限制在「五個問題」之內,但這之後也可能會改變。

參考資料:Reuters

瀏覽 503 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button