未來百年內「AI消滅人類」機率高達99.9%!美教授揭3悲慘結局

隨著人工智慧(AI)技術的快速發展,其潛在風險引發了廣泛的討論和關注。近日,美國路易斯維爾大學的電腦科學教授揚波爾斯基(Roman Yampolskiy)在節目中對AI的未來風險發出了嚴峻警告,聲稱AI導致人類滅絕的機率高達99.9%。他強調,至今仍無任何一款AI技術能被完全證明是安全的,並認為人類可能無法開發出沒有缺陷的高度複雜軟體。

 

 

 

 

 

揚波爾斯基在其新書和Podcast中提出,現今的AI技術在實際應用中屢次出現失誤,甚至做出超出開發者預期的行為,這顯示了AI在運行過程中可能存在無法預測的風險。儘管開發者試圖確保AI能夠在預定範圍內操作,但除非人類能創造出完全零錯誤的軟體,否則AI的自主行動可能帶來不可控的後果。

 

▼針對AI的未來,揚波爾斯基提出了三種可能的災難性結果:第一,人類可能會因AI的進化而滅絕;第二,人類或許存活,但生活將陷入極度痛苦中;第三,AI接管大部分工作,導致人類失去生存目標和動力,陷入極度空虛的生活狀態。他警告,AI系統有可能變得比人類更聰明,發現人類尚未探索的知識,從而剝奪人類的求知欲和探索精神。

 

 

 

然而,揚波爾斯基的觀點引發了業界內外的不同聲音。許多AI工程師認為,他對AI風險的評估過於誇張。根據針對2700名AI研究人員的調查,AI導致人類滅絕的機率僅為5%。此外,OpenAI執行長山姆·奧特曼(Sam Altman)也提出設立「監管沙盒」(regulatory sandbox)的建議,允許在受控環境下進行AI實驗,以便進一步優化技術監管,降低AI風險。

 

延伸閱讀:

 

針對AI安全性問題,其他科技領袖也持較為樂觀的看法。在2024年台北國際電腦展(COMPUTEX 2024)上,輝達(NVIDIA)執行長黃仁勳和美超微(Supermicro)創辦人梁見後都強調,人類不會被AI控制,關鍵在於技術的進步與完善的安全規範。他們指出,AI技術的發展需要科學、工程及商業實踐的全方位推進,並在不斷制定和調整的安全規範中尋求平衡,以確保技術的長期可控性和安全性。

來源:網路資料

你可能也會喜歡