AI搜尋與公平性問題|專家論點【張瑞雄】
作者:張瑞雄 台北商業大學前校長/叡揚資訊顧問
人工智慧(AI)的興起為資訊搜尋與內容生成帶來了革命性的改變,AI搜尋工具,如ChatGPT、Perplexity等,正逐步取代傳統搜尋引擎。但這些工具在資訊引用、網路內容爬取與公平性應用上暴露了諸多問題,不僅威脅到內容網站的生存,也帶來了公平性與道德責任的挑戰。

AI搜尋工具在內容引用方面存在嚴重缺陷,傳統搜尋引擎(如Google)會將使用者引導至原始內容網站,但生成式AI搜尋則直接解析並重組內容,使使用者無需點擊原始網站來源。這種模式導致內容網站的流量驟減,進而影響廣告收益與生存。
另外AI搜尋工具大多無法準確引用內容來源,甚至經常提供錯誤或虛構的資訊。部分AI聊天機器人還會自信地提供錯誤答案,讓使用者無所適從。更令人擔憂的是,AI搜尋工具經常忽視網站的robots.txt排除協議,仍然爬取並使用受限內容。這不僅侵犯了網站的權益,也降低了使用者獲取原始準確資訊的動機。
AI在公平性(Fairness)方面的問題也逐漸浮現,AI公平性技術基於數學公式來衡量與修正偏見,但這種方法難以對付現實世界的複雜性。例如公平性評估可能因分類方式過於簡化而忽略交叉性歧視問題(如種族與性別的交互影響)。此外AI公平性通常需要蒐集大量敏感個人資料,這與隱私保護原則相衝突。在許多情境下,公平性概念本身缺乏統一標準,導致不同方案間的公平性衡量難以一致。
此外,即使AI公平性技術能夠在特定演算法層面降低偏見,這種改進往往只影響決策流程的一部分,無法消除更廣泛的社會偏見。例如在人類監督仍然介入的決策過程中,即使AI系統公平,最終結果仍可能受到人為偏見的影響。這顯示出,公平性不僅是技術問題,更需要社會層面的綜合治理。
面對上述問題,產業界與政策制定者必須採取行動,以確保AI技術的發展不會損害資訊生態系統與社會公平性。首先必須提升AI搜尋的引用透明度,AI搜尋要確保資訊來源的可追溯性,建立標準化的引用框架,標明資訊來源,並提供原始鏈接,將流量回饋給內容創作者。
其次政府應制定更嚴格的法律,要求AI爬蟲遵守網站的robots.txt規範,並禁止未經授權的內容抓取,此外網站可採取技術手段(如封鎖未授權爬蟲)來保護自身內容。
AI公平性的衡量標準應根據不同應用場景制定,避免單一公式化的解決方案。企業在採用AI公平性技術時,應透明公開其決策標準,並納入人類監督機制,以確保公平性在不同層面的實踐。
還有內容網站與科技公司應建立更緊密的合作,例如內容授權計畫,確保AI公司能合法使用網站內容,同時為網站帶來新的收入模式。
AI搜尋與公平性的問題,已成為數位時代的重大挑戰。AI搜尋工具的發展,雖然為使用者帶來了更便捷的資訊獲取方式,卻也毀滅了內容創作者的收益,並可能影響資訊的準確性。同時AI公平性技術的應用,雖然試圖減少決策過程中的歧視,但仍面臨資料偏見、隱私保護與公平性標準不統一等問題。
未來,政府、企業與學界應共同努力,制定更完善的規範與標準,確保AI技術能夠在公平透明的基礎上發展,使資訊生態系統能夠維持健康平衡,避免科技發展加劇社會不公。
瀏覽 85 次