對AI極度憂心 巴菲特:危害可能不亞於原子彈
編譯/于文浩
世界上最成功的投資者華倫·巴菲特將人工智慧比作原子彈的誕生,成為了對該技術快速發展表示震驚的最新高調商業人物。對於這位著名投資家來說,人工智慧帶來的危害將不亞於原子彈,因此如何「調整我們的思維」顯得尤為重要。
據《Insider》報導,在波克夏·海瑟威公司(Berkshire Hathaway)的年度會議上,這位知名投資家對人工智慧取代人類的能力持保留態度,但他也指出該技術已經能完成許多事情,並將人工智慧的誕生與原子彈相提並論。巴菲特一直是核子武器的堅定反對者。
巴菲特表示,雖然這項技術目前仍存在局限性,例如無法說出令人信服的話語,但他說:「它已經可以做各種各樣的事情。而當一個東西可以如此無所不能時,我就會有點擔心。」他說:「我們確實以很好的理由發明了原子彈,並將其應用在了第二次世界大戰上,這樣做是非常重要的。但是,這樣做的能力被釋放出來,對未來200年的世界來說真的有好處嗎?」
巴菲特引用了愛因斯坦在原子分裂後的一段話,原子分裂導致了原子彈的誕生。愛因斯坦說:「原子彈的誕生改變了一切,除了我們的思考方式(changed everything save our modes of thinking)。」這句話的後一句是:「因此我們朝著無與倫比的災難漂流。」巴菲特總結說:「人工智慧可以改變世界上的一切,除了人的思考和行為方式,而這是我們必須要邁出的重要一步。」
長期以來,巴菲特一直是核武器的公開反對者,他表示,如果他知道如何降低攻擊的概率,他將毫不猶豫地將所有的錢都捐出去。
華倫·巴菲特對人工智慧的快速發展表達了擔憂,並指出我們需要調整思維方式以應對可能帶來的風險。在這個科技快速發展的時代,巴菲特的觀點提醒了我們在追求創新和發展的同時,也要關注可能帶來的潛在危害。對於如何平衡科技創新和潛在風險,我們需要不斷地反思和探討,以確保人工智慧技術在未來的發展中能夠更好地造福人類。
參考資料:Insider
瀏覽 1,481 次