當前位置:
首頁 > 軍情 > 美國對假想敵的裝備研發誤導很在行

美國對假想敵的裝備研發誤導很在行

原標題:美國對假想敵的裝備研發誤導很在行


作者:劉暢 來源:鳳凰網


美國選擇性忘記了鴨翼為殲20帶來的機動優勢,有意思的最早提出鴨翼諸多積極意義的正是美國自己。(資料圖)


騙人是個技術活,而美國海軍學院專業刊物《Proceedings Magazine》今年10月發表報告相當系統的為大家展現了騙人的核心技巧。該報告對F-35戰鬥機和殲-20戰鬥機進行了對比,指出殲20的隱身性能甚至不及F117,多項性能相比F35差距相當明顯。


從二戰時期「馬丁少校」的肉餡計划到冷戰時期將蘇聯航母引向歧途,美國對假想敵的戰略欺騙與裝備研發誤導一直相當奏效。回顧這些欺騙措施,其中包含了這樣三項技巧:1、混淆主次矛盾,突出錯誤重點;2、混淆核心技術概念,抹殺對手技術成就;3、混淆正確發展方向,將對手引向歧途並為自己解套。根據該報告目前公布的細節,這三項技巧全部包括在內,如果中國對美國指出的問題「虛心接受」,殲20將步很多經典裝備的後塵。


目前尚無殲20隱身性能的權威數據,但F35側面與機尾的隱身缺陷卻是美國自己承認的。(資料圖)


首先:混淆主次矛盾,突出錯誤重點。該報告指出,殲20因重視超音速性能,機翼面積比F22小25%,這意味著殲20的翼載比F22更高,這將導致殲20在高亞音速條件下的機動性不及F22。在戰機的飛行性能中,機載載荷越大,越有益於高速性能,機翼載荷越小,越有益於盤旋性能,如何在這組矛盾中進行折中就成了戰機設計中最體現功力的部分。美國僅通過對比殲20與F22的機翼面積就武斷的得出了結論,但它選擇性的忘記了殲20的鴨翼。


鴨翼的優勢是配平阻力比較小,具有較大的升阻比。鴨翼能在增加戰機機翼迎角時,令氣流產生正偏轉併產生升力,此時採用鴨翼布局的戰機相比無鴨翼戰機,獲得相同升力時的飛機迎角更小,從而獲得更好的機動性。有意思的是,關於鴨翼對戰機機動性的積極意義,很多都是美國通過X36驗證機得出的,此時卻選擇性遺忘鴨翼給殲20帶來的亞音速環境下的機動性優勢,只能說明殲20的機動性似乎已到對F22戰機構成威脅的程度。



龍勃透鏡就是為了讓己方雷達看到隱身性能優異的戰機,而美國為了能讓殲20的隱身性能不及F35甚至是F117,再次選擇性的遺忘了。(資料圖)

其次,混淆核心技術概念,抹殺對手技術成就。該報告指出,殲20的RCS值為0.025平方米(0.269平方英尺),而美軍公布的F117的RCS值卻僅為0.01平方米,殲20的隱身性能相比美國首代隱形戰機都有明顯差距。受制於無法直接探測殲20,美國很可能根據公開與非公開數據,構建殲20電磁模型,從而得出殲20的RCS值。但各國隱身材料性能均屬絕密,美國這種粗糙的數據推算得出的結果是否準確可想而知。


與對殲20的機動性分析類似,該報告同樣選擇性遺忘了殲20上的一個關鍵部件——龍勃透鏡。龍勃透鏡就是隱形戰機腹部一個可拆卸的小型圓柱形設備。該透鏡一方面能強化戰機整體的隱身能力,另一方面則能對己方特定雷達波進行有效反射,從而令己方地面雷達了解隱形戰機所在位置。配置龍勃透鏡就是因為戰機的隱身性能已經好到不僅對方看不到,自己也可能看不到,如果殲20的隱身性能不及F117,中國這麼做豈不是多此一舉。



目前美國需要F35戰勝的不是殲20而是自身層出不窮的技術問題,被迫用F35對抗殲20的也不是美國,而是它的亞洲盟國。(資料圖)


第三,混淆正確發展方向,將對手引向歧途的同時為自己解套。美國這份報告會有一個很有意思的地方,殲20機動性外,所有對比對象都是F35,而且在與F35進行對比的項目中,殲20幾乎全部處於下風。這就需要強調一個該報告試圖混淆的要點:F22才是與殲20同類的重型隱形戰機,F35主打的是對地/對海攻擊。目前美國需要F35戰勝的不是殲20而是自身層出不窮的技術問題,被迫用F35對抗殲20的也不是美國,而是它的亞洲盟國。

對於美國而言,重啟F22生產線不僅難度較大,而且是自己的事情,可以緩一緩。但目前F35作為美國歷史上投入最大的軍備研發項目,層數不窮的技術問題不僅令本國對其信心大減,更令參與其中的盟國疑慮重重,土耳其、加拿大已明確表示放棄採購F35,荷蘭、義大利則暫緩F35採購。面對如此不利的局面,通過唱衰殲20來拔高F35就成了美國穩固國內支持,增加盟友信心的「解套」之舉,但面對F35效果如何值得觀察。


美中俄AI軍備競賽:軍事AI系統的潛在風險


來源:lawfareblog


作者:Elsa Kania 譯者:馬文

AI的發展已經開始引起人們對「殺手機器人」威脅和AI軍備競賽風險的恐懼,本文對比美國、中國、俄羅斯的AI軍事力量,探討AI技術被用于軍事的潛在影響,並評估如何減少發生錯誤或失控的風險。


今天人工智慧(AI)的快速發展可能會破壞或動搖現有的軍事平衡。人工智慧或「超級智能」的潛在實現值得討論,但它仍然是一個相對遙遠的可能性。但是,AI的發展已經開始引起人們對「殺手機器人」威脅和AI軍備競賽風險的恐懼。伊隆·馬斯克(Elon Musk)甚至在推特上寫道:「在我看來,在國家層面上的AI競爭很可能引發第三次世界大戰。」


這些擔憂可能還為時過早,但AI的顛覆性潛力是真實存在的。AI最近的進展主要涉及機器學習,尤其是深度學習技術,例如使用深度神經網路的技術,涉及的領域包括計算機視覺、模式識別和自然語言處理等。自2016年以來,有幾個重要的里程碑揭示了技術進步的快速發展和潛在的現實世界裡的應用。2016年,DARPA網路挑戰賽(Cyber Grand Challenge)的獲勝者「Mayhem」證明了自動檢測和修補軟體漏洞的潛力,從而改變了網路安全。2016年,AlphaGo在與李世乭的歷史性對弈中擊敗了李世乭,第二年又在與世界頂級圍棋選手柯潔的比賽中擊敗了柯潔,AI已經掌握了圍棋——這一需要複雜策略的古老遊戲的技巧,這至少比預期的提前了10年。


美中俄的AI國防力量


美國、中國和俄羅斯都意識到AI對國防的顛覆性、甚至革命性的影響,它們正在積極尋求提升自己在一系列軍事應用中使用AI技術的能力。2017年春天,美國國防部透露,它已經建立了一個演算法作戰的跨職能團隊,旨在「加速國防部整合利用大數據和機器學習的能力」。今年夏天,中國發布了新一代人工智慧發展規劃,該規劃明確了到2030年在人工智慧領域「引領世界」的雄心。規劃要求加強人工智慧領域的軍民融合,以在國防領域應用AI技術,包括支持指揮決策、軍事推演和國防裝備。與此同時,俄羅斯軍方一直在積極推進智能機器人技術的發展,俄羅斯總統普京最近宣布,「誰能成為AI領域的領導者,誰就將成為世界的統治者。」事實上,AI在軍事領域的出現似乎是信息時代戰爭向「演算法戰爭」的轉變,或用中國軍事思想家的描述是「智能化戰爭」。


儘管有關禁止「殺手機器人」的呼籲一直存在,最近包括馬斯克等115名AI專家聯合簽署的一封公開信,明確稱發展致命的自動武器將打開「潘多拉的盒子」,並冒著釋放「恐怖武器」的風險——因為徹底的禁令不太可能行得通。大國不可能接受對其未來軍事實力至關重要的AI能力的制約。甚至試圖尋求某種形式的監管或國際條約來限制AI的應用都不大可行,因為很容易被技術發展所趕超。這種軍民兩用技術的擴散也將難以控制。


因此,主要的軍事力量應該採取主動的方法來評估和減輕AI在軍事應用方面的潛在風險。這符合他們的利益,就像美國、中國和俄羅斯都至少對戰略穩定有基本的承諾,並意識到盲目擴張的不可取之處。


AI軍事應用的風險


迄今為止,許多與AI相關的風險的分析和關注集中在倫理問題和與使用致命自主武器系統(lethal autonomous weapons system, LAWS)相關的風險上。就如何應用和調整武裝衝突的法律,以及使用自主武器系統的必要性、區別、比例和人道主義的核心原則等問題有過一個國際性的辯論,但是各國將如何解釋和遵守這一框架尚不清楚。與此同時,美國智庫新安全中心(Center for a New American Security)的高級研究員Paul Scharre在一份關於該話題的報告中,提出自動武器的使用可能會導致一系列操作風險,包括在複雜系統中不可避免的失敗,敵方試圖攻擊或破壞自主系統(例如欺騙和行為攻擊),或者敵我系統之間發生不可預知的交互。


這些問題是至關重要的,同時也讓我們思考,在AI領域之外,AI的軍事應用所帶來的風險。事實上,當前的、相對沒有爭議的AI的軍事用途也值得持續關注。儘管有人擔心AI正在「召喚惡魔」,但AI的當前局限性,而不是它的潛在能力或可控性問題,在短期內更可能出現問題。在某些情況下,錯誤和問題可能來自於看似常規的應用程序,即使問題中的演算法沒有直接用於武器系統。


例如,美國和中國軍隊在情報、監視和偵察(intelligence, surveillance and reconnaissance ,ISR)的自動化方面使用AI技術,尤其是用於支持指揮決策。在Project Maven的幫助下,美國國防部計劃加快大數據和機器學習的整合,利用計算機視覺演算法實現數據、視頻和圖像的自動處理。通過這一舉措,美國國防部計劃在2017年底之前,在戰區擁有「部署」演算法的能力。此外,美國空軍試圖利用AI技術,通過演算法和人機界面來提高處理信息的速度和規模,以及提高領導者的決策能力。類似地,中國人民解放軍(PLA)正在開發一種演算法,實現數據融合,增強情報分析能力,從而支持指揮決策。例如,中國人民解放軍正在資助與目標識別相關的研究和開發,以及基於機器學習的感測器數據和衛星圖像處理。中國軍隊尤其關注的是AI在作戰指揮和協助決策方面的潛力。


AI的這些軍事應用並不直接涉及到致命武器,但可能會導致引發不穩定危機或加劇風險升級的錯誤。在當前的發展階段,AI還遠遠不夠智能,往往會犯人類不會犯的錯誤。這樣的錯誤可能是不可預測的,也很難減輕。在非軍事的某些情況下,結果可能是可笑的或荒謬的。然而,在軍事環境中,可能會產生嚴重的後果。隨著系統複雜性的增加,如果某個情況超出了演算法的預期參數,可能導致錯誤或意外引起的突發行為。


利用機器學習來支持軍事情報、監視和偵察能力或指揮系統,可能會為誤解或誤判創造新的途徑。例如,如果一種用於處理衛星圖像的計算機視覺演算法在察覺威脅或潛在目標上犯了錯誤,那麼在分析甚至戰場上都可能出現錯誤。類似地,如果一種用於機器翻譯或自然語言處理的演算法錯誤地呈現了某個關鍵的情報,那麼不準確的情報就會被引入到分析和決策過程中。(當然,在某些情況下,AI的使用可能會減少分析和決策失誤,而這可能是由於人類的認知偏差而產生的。)此外,還有一種威脅,即對手將開發對抗或干擾彼此AI系統的對策,試圖歪曲數據或攻擊演算法本身。


考慮到另一個近期的應用程序,有可能會出現一種趨勢,即由多個軍隊(甚至非國家主體)使用支持AI的網路能力,在一個複雜且有爭議的領域引入更大程度的自主。2012年美國國防部關於「武器系統的自主」(Autonomy in Weapons System)的指令明確要求對使用武力進行「適當程度的人類判斷」,但「不適用於網路空間操作的自主或半自主網路空間系統」。在某些網路操作中,如在防空和導彈防禦系統中所需要的速度,可能需要更大程度的自主。今年8月,美國國防部正式購買了與Mayhem相關的技術,這些技術將被用於自動檢測和修補軟體漏洞。儘管Mayhem是為了防禦任務,類似的技術可能會被武器化並用於攻擊目的。中國軍方也可能會尋求AI增強其網路戰的攻擊性和防禦性能力,包括在其新的戰略支援部隊(SSF)下。將AI與網路能力結合起來以獲得優勢的趨勢,可能會加劇這個競爭領域的升級態勢,尤其是在這種能力開始加速發展的情況下。


展望未來,AI將帶來破壞性的軍事能力,同時給軍事和戰略穩定帶來系統性的風險。現在是時候開始考慮這些技術趨勢的潛在影響,並評估如何減少錯誤或失控的風險。首先,大國軍方應該考慮採取行動——或許,作為未來的一種建立信心的措施,應該承諾採取一些實際措施,比如:

  • 對軍用AI系統的安全性和完整性進行嚴格測試,重點關注在開放、不受控制的環境中可能出現的錯誤或故障;

  • 在軍事AI系統中製造系統冗餘(redundancy),包括那些用於支持情報收集、監視和偵察能力的系統,以便進行驗證,這樣就有多種方法來檢測錯誤和評估輸出,以確保與實際的地面真相保持一致;

  • 研究故障安全措施或「斷路開關」選項,以便在非計劃交戰或事態升級的情況下,允許緩和或消除衝突;

  • 確保AI系統的「可解釋性」,以減少決策的問題,同時在可行的情況下,確保「有意義的人類控制」。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 裝備參考 的精彩文章:

F1到F22戰鬥機全集
洛馬獲型機載高能激光武器合同

TAG:裝備參考 |