人工智能可能在2040年顛覆核和平的基礎(chǔ)
據(jù)《每日郵報》北京時間4月25日報道,一家主要的安全智庫蘭德公司(以下簡稱“蘭德”)警告稱,最早在2040年,人工智能就可能發(fā)動造成人類毀滅的核戰(zhàn)爭。
蘭德稱,催生“世界末日人工智能”機器的技術(shù)發(fā)展,可能會促使一些國家利用它們的核武庫冒險。
在冷戰(zhàn)期間,被稱作“相互確保摧毀”的狀態(tài),維持了兩個超級大國之間不穩(wěn)定的平衡。
然而,人工智能的進步可能意味著“相互確保摧毀”狀態(tài)遭到破壞,從而削弱對方反擊的潛力,而且,這種趨勢可能無法阻止。
冷戰(zhàn)期間相互確保摧毀維持了超級大國之間脆弱的平衡
蘭德稱,未來數(shù)十年,人工智能的進步,可能破壞“相互確保摧毀”對擁核國家的約束力。
就像在20世紀(jì)40年代和50年代的冷戰(zhàn)時期,未來核沖突的每一方都有理由擔(dān)心對手獲得技術(shù)優(yōu)勢。
改進的人工智能技術(shù),加上更多的傳感器和開源數(shù)據(jù),可以使各國相信他們的核能力是脆弱的。
報告稱,這可能會導(dǎo)致它們采取更激進的措施,跟上美國這樣的競爭對手。
蘭德研究人員、報告共同作者安德魯·洛恩(Andrew Lohn)表示,“有些專家擔(dān)心,人們越來越依賴人工智能會導(dǎo)致新型的災(zāi)難性錯誤!
各國都面臨在技術(shù)真正成熟前使用人工智能的壓力。因此未來數(shù)十年要保持戰(zhàn)略穩(wěn)定性極端困難,所有核大國必須參與新體系的形成,以降低核風(fēng)險。
報告稱,另一種令人擔(dān)憂的情況是,指揮官可能根據(jù)人工智能助手提供的建議作出發(fā)動攻擊的命令,而人工智能助手接收的信息本身可能就是錯誤的。
除了提供糟糕的建議外,這樣的系統(tǒng)也可能容易受到黑客攻擊,從而引發(fā)了惡意第三方發(fā)動第三次世界大戰(zhàn)的可能性。
盡管如此,有人認(rèn)為人工智能可以通過提高情報收集和分析的準(zhǔn)確性,來提高未來的戰(zhàn)略穩(wěn)定性。
專家表示,對用于監(jiān)測和解釋對手行為的分析過程進行改進,可以減少可能導(dǎo)致對抗意外升級的錯誤計算或曲解。
鑒于未來的改進,最終人工智能系統(tǒng)有可能發(fā)展出比人類更不容易出錯的能力,因此有助于保持長期的戰(zhàn)略穩(wěn)定性。
根據(jù)與在核問題、政府部門、人工智能研究、人工智能政策和國家安全方面的專家舉行的一系列研討會期間收集的信息,蘭德研究人員,得出了上述結(jié)論。
這項研究是展望2040年重大安全挑戰(zhàn)的更廣泛研究活動的一部分,考慮了政治、技術(shù)、社會和人口趨勢的影響。
“人工智能會增加核戰(zhàn)爭的風(fēng)險?”研究的全部資料發(fā)布在蘭德網(wǎng)站上。