AGI帶來的戰爭思考
■榮 明 胡曉峰
編者按
科技與戰爭總是交織在一起,科技創新在不斷改變戰爭面貌的同時,并沒有改變戰爭的暴力性性質和強迫性目的。近年來,隨著人工智能技術的快速發展應用,人們關于人工智能對戰爭影響的爭論從未停止。與人工智能(AI)相比,通用人工智能(AGI)的智能程度更高,被認為是與人類智能相當的智能形式。AGI的出現將如何影響戰爭,會不會改變戰爭的暴力性和強迫性?本文將帶著一系列思考與大家共同探討這個問題。
AGI只是賦能技術嗎
很多人認為,雖然大模型以及生成式人工智能展現出未來AGI強大的軍事應用潛力,但它們畢竟只是一種賦能技術,即只能對武器裝備賦能優化,使現有裝備更加智能,提高作戰效率,難以帶來真正的軍事革命。就如同“網絡戰武器”在剛出現時也曾被許多國家寄予厚望,但現在看來確實有點夸大。
AGI的顛覆性其實完全不同。它以遠超人類的反應速度和知識廣度給戰場帶來巨大改變。更為重要的是,它通過促進科技的快速進步,涌現出巨大的顛覆性結果。未來戰場上,自主武器將被AGI賦予高級智能,性能得到普遍增強,并且憑借其速度和集群優勢變得“攻強守難”。屆時,一些科學家曾預言的高智能自主武器將成為現實,而AGI在其中起到了關鍵性作用。當前,人工智能的軍事化應用領域包括自主武器、情報分析、智能決策、智能訓練、智能保障等,這些應用很難用“賦能”來簡單概括。而且,AGI發展速度快、迭代周期短,處于不斷進化的狀態。未來作戰,需要將AGI作為優先事項,格外關注其帶來的可能改變。
AGI會讓戰爭消失嗎
歷史學家杰弗里·布萊尼認為“戰爭總是因為對各自力量或意愿錯誤的判斷而發生”,而隨著AGI在軍事領域的應用,誤判將變得越來越少。因此,有學者推測,戰爭將隨之減少或消失。其實,依托AGI確實可以減少大量誤判,但即便如此,也不可能消除所有不確定性,因為戰爭的特征之一就是不確定性。何況并非所有戰爭都因誤判而產生,而且,AGI固有的不可預測性、不可解釋性,以及人們對AGI使用經驗的缺乏,都會帶來新的不確定性,使人們陷入更加濃重的“人工智能迷霧”之中。
AGI算法還存在理性難題。有學者認為,AGI對重大情報的挖掘和精確預測,會帶來雙重影響。AGI在實際操作層面,確實比人類犯錯少,能夠提高情報準確性,有利于減少誤判;但有時也可能會使人類盲目自信,刺激其鋌而走險。AGI帶來的進攻優勢,導致最佳防御戰略就是“先發制人”,打破了進攻與防御的平衡,引發了新型安全困境,反而增加了戰爭爆發的風險。
AGI具有通用性強的特點,很容易與武器裝備結合。與核、生化等技術不同,它使用門檻低,特別易于擴散。由于各個國家間存在技術差距,導致人們很可能將不成熟的AGI武器運用于戰場,帶來巨大風險。比如,無人機在最新局部戰爭實踐中的應用,就刺激很多中小國家開始大量采購無人機。AGI帶來的低成本裝備和技術,極有可能刺激新型軍備競賽的發生。
AGI會是終極威懾嗎
威懾是維持某種能力以恐嚇對手使其不采取超越自身利益的行動。當威懾強大到無法使用時就是終極威懾,比如確保相互摧毀的核威懾。但最終決定結果的卻是“人性”,這是戰爭永遠不會缺失的關鍵。
如果沒有了“人性”的各種權衡,AGI是否會成為令人生畏的威懾?AGI速度很快但缺乏同理心,執行堅決,博弈空間被極度壓縮。AGI是未來戰場的關鍵性因素,但因缺乏實踐經驗很難進行準確評估,很容易高估對手能力。此外,在自主武器控制方面,是人在環內、全程監督,還是人在環外、完全放手,這無疑需要深思。智能化武器的開火控制權能交給AGI嗎?如果不能,威懾效果將大打折扣;如果能,人類的生死就真的可以交由與其無關的機器來決定?康奈爾大學的研究中,兵棋推演大模型經常“突然使用核攻擊”升級戰爭,即使其處于中立狀態。
或許未來某一天,AGI會在能力上超過人類,我們是不是就無法對其進行監管控制了?提出深度學習概念的杰弗里·辛頓說,從沒見過更高智能水平的東西被更低智能水平的東西控制的案例。有研究團隊認為,人類可能無法監督超級人工智能。未來面對強大的AGI,我們真的能夠控制住它們嗎?這是一個值得人們深思的問題。
AGI會改變戰爭本質嗎
隨著AGI的大量運用,充滿暴力和血腥的戰場會不會消失?有人說,人工智能戰爭遠超人類能力范圍,反而會將人類推到戰場之外。當人工智能將戰爭變成全部由自主機器人對抗時,那它還是“暴力和血腥的戰爭”嗎?當能力不對等的對手對抗時,弱者可能根本就沒有行動的機會,戰爭是不是通過兵棋推演就可以在戰前被結束?AGI會因此改變戰爭的本質嗎?“無人”的“戰爭”還是戰爭嗎?
《人類簡史》作者尤瓦爾·赫拉利說,人類的一切行為都通過語言作為中介并影響我們的歷史。大語言模型是一種典型的AGI,它與其他發明最大的不同在于可以創造全新的想法和文化,“會講故事的人工智能將改變人類歷史的進程”。當AGI觸及對語言的掌控時,人類構建的整個文明體系就可能被顛覆,在這個過程中甚至不需要其產生意識。如同柏拉圖的“洞穴寓言”,人類會不會將AGI當成新的“神明”加以膜拜?
AGI通過人類語言和人類建立親密關系,并改變人類的看法,使人類難以區分和辨別,從而存在戰爭意志被別有用心之人控制的危險。赫拉利說,計算機不需要派出殺手機器人,如果真的需要,它會讓人類自己扣動扳機。AGI精準制造和打磨態勢信息,通過深度偽造控制戰場認知,既可用無人機對戰場態勢進行偽造,也可以在戰前進行輿論造勢,在近幾場局部戰爭中已初見端倪。戰爭成本會因此大幅度下降,從而導致新的戰爭形態產生,小國弱國還會有機會嗎?戰爭意志是否可以不用流血就可改變,“武力”是否不再是戰爭定義的必要條件?
戰爭形態或被改變,但本質仍在。無論戰爭是否“血腥”,其仍會強迫敵人服從自己的意志并帶有大量“附帶損傷”,只不過對抗方式可能會完全不同。戰爭本質在于內心深處的“人性”,而“人性”是由文化、歷史、行為和價值觀等決定的,是很難用某種人工智能技術完全復刻出來的,所以不能將倫理、政治和決策問題全部外包給人工智能,更不能期望人工智能會自動產生“人性”。人工智能技術可能會因激情沖動而被濫用,所以必須在人類掌控之中。既然人工智能是人類訓練的,它就不會永遠都沒有偏見,所以它們就不能完全脫離人類的監督。在未來,人工智能可以成為有創意的工具或伙伴,增強“戰術想象力”,但必須“對齊”人類的價值觀。這些問題需要在實踐中不斷地去思考和理解。
AGI會顛覆戰爭理論嗎
大多數的學科知識是用自然語言表述的。集人類著述之大成的大語言模型,可以將很難相容的語言著述與科學研究聯系起來。比如,有人將古典名著甚至哲學、歷史學、政治學、經濟學等輸入大語言模型,進行分析重構。發現它既可以對所有學者觀點進行全面分析,也可以提出它“自己的見解”,而且不失創見。因此有人說,是否也可以通過AGI對戰爭理論重新加以分析解釋,激發人類創新,以驅使戰爭理論及體系發生重大演化和重構?也許從理論上確實會有一定的改進和發展,但戰爭科學不僅具有理論性,而且還具有實踐性,但實踐性、現實性卻是AGI根本做不到的。經典戰爭理論真的可以重新解釋嗎?若是,則理論的意義何在?
總之,AGI對戰爭概念的顛覆將遠超“機械化”“信息化”。對于AGI的到來,人們既要大膽擁抱,又要心存謹慎。理解概念,不至于無知;深入研究,不至于落伍;強化監管,不至于失察。如何學會與AGI合作,防范對手AGI技術突襲,是我們未來首先需要關注的事情。
編 后
以開闊思維前瞻未來
■野鈔洋
未來學家羅伊·阿瑪拉有一個著名論斷,人們總是傾向于高估一項技術帶來的短期效益,卻又低估了它的長期影響,后被稱作“阿瑪拉定律”。這一定律,強調了科技發展的非線性特征,即科技的實際影響往往需要在更長的時間尺度上才能完全顯現,反映了科技發展的脈動與趨勢,體現人類對科技的接納與憧憬。
當前,人工智能由弱人工智能到強人工智能、由專用人工智能到通用人工智能的發展過程中,每次人們認為已走完全程的90%時,回首一看,可能才剛不到全程的10%。科技革命對軍事革命驅動作用愈發凸顯,尤其是以人工智能技術為代表的高新技術多方位向軍事領域滲透,使得戰爭制勝機理、制勝要素、制勝方式正在發生深刻演變。
在可以預見的未來,AGI等智能化技術不會停止迭代的步伐,而智能化技術交叉演化以及在軍事領域的賦能應用等都將趨于多元化,或許會跳脫出人類對現有戰爭形態認知的邊界。科技的發展已勢不可擋、也無人能擋,誰能以敏銳的眼光、清醒的頭腦,看清科技的趨勢和未來、看到科技的潛質和威力,洞穿“戰爭迷霧”,誰就更有可能搶占制勝先機。
這提醒著人們,對于未來戰爭形態發展的探索應持更加開闊的視角和思維,才可能更加接近被低估的現實。AGI向何處去?智能化戰爭往何處去?這考驗著人類的智慧。