2026全球名家瞭望/AI 風險控管 不亞於核武
美國前總統拜登國安顧問蘇利文。(路透)
2024年11月,美中兩國領導人首次就人工智慧(AI)帶來的國家安全風險,發表具實質內容的聯合聲明,共同強調必須保持人類對動用核武的決策權。
這項共識看似理所當然,實則歷時逾一年才協商完成。中方對美方提出的風險控管倡議向來深懷疑慮,而俄羅斯曾在多邊場合反對類似表述。美中若單獨商談AI與核武安全,可能令中俄產生嫌隙。因此,這項成果得來不易,其意義在於證明:即使在激烈競爭AI主導權的同時,兩個超級大國仍能展開具建設性的風險管理合作。
早在2024年初,美中外交官與專家便已在日內瓦,舉行首場聚焦AI風險的長時間會議。雖未達成具體協議,但雙方確立需優先處理的關鍵風險領域,爲後續對話奠定基礎。
隨着AI技術在軍用與民用領域加速發展,相關風險與日俱增。
例如,恐怖組織等非國家行爲體可能利用AI發動癱瘓關鍵基礎設施的網路攻擊、製造難以偵測的新型生物武器、散播動搖社會的虛假訊息,或操控能無預警發動致命襲擊的無人機。
與此同時,AI被整合進軍事決策流程將壓縮反應時間,升高因系統誤判而意外引發衝突或導致災難性升級的風險。在金融領域,若AI主導交易卻缺乏足夠防火牆,也可能觸發市場崩盤。
展望未來,一個能力強大但目標設定錯誤、與人類利益不符的AI系統,可能嚴重危害人類社會。
因此,作爲AI超級大國,美中有責任直接對話,共同應對這些日益迫近的威脅。
對話不意味停止競爭。去年秋天,中國嚴格管制關鍵稀土出口,清楚顯示這場競爭已趨尖銳。
我在拜登政府擔任國安顧問期間,努力確保美國在AI領域維持領先,這項技術爲美國所用而不會反噬,親眼見證無論是在軍事、情報、商業應用,或全球市場的模型採納之爭,這場競賽只會持續升溫。
正因競爭激烈,外交途徑才更顯關鍵。若美中只顧競逐技術優勢,卻不就AI風險及其在應對氣候危機、公共衛生等跨國挑戰上的潛在作用進行對話,將極不負責任。
政府之外的第二軌道外交確有價值,但歸根結柢,沒有任何方式能替代政府間的直接接觸。
考慮到技術發展速度驚人、有效的外交突破十分困難,雙方接觸已刻不容緩。AI風險管理仍屬未知領域,進展並不容易,美中必須立即行動。
許多人將AI風險管控與核武軍控類比,這是有道理的。超級大國對強大技術負有共同管理風險的責任,即便在冷戰高峰期,也曾透過軍控協議履行此責。
由於AI帶來的挑戰截然不同,我們會需要創新性的應對。首先,驗證遠較棘手:清點飛彈與清點演算法及其能力是兩回事。
其次,軍民兩用界線模糊,同一AI模型既可推動科研與經濟,也可能造成致命危害。
第三,威脅來源多元,除國家間風險,也涉及非國家行爲體與系統目標錯位。第四,研發主體分散,尤其在美國,AI由多傢俬營企業推動,治理須納入更廣泛行爲體。
最後,AI的發展速度與終極影響衆說紛紜,遠比相對清晰的核武技術更難預測。核武管控框架耗時數十年建立,而AI的挑戰更爲複雜,因此,管控AI風險的努力必須立即開始。
(作者Jake Sullivan是美國前總統拜登的國安顧問、Project Syndicate專欄作家/編譯季晶晶)
.2026全球名家瞭望系列文章由「富邦金控」贊助