一方面,人工智能可協助人類指揮官指揮快速復雜的作戰行動,直接為“任務式指揮”提供決策支持能力:一是縮短己方決策時間,二是運用迷惑、干擾等手段增加敵方決策時間。美《陸軍條令》將“任務式指揮”定義為:“在一體化地面作戰過程中,指揮官通過使用任務式指揮行使權力和進行指揮,以使具有靈活性和適應性的領導者在按照指揮官意圖的前提下發揮符合作戰紀律的主動性。”簡而言之,美軍所說的“任務式指揮”即上級指揮官只向下級指揮官下達任務目的,而不規定完成任務所使用的手段和方式。然而,目前的實踐表明這一指揮方式容易對己方“判斷”環節造成消極影響。因為基層指揮官缺乏高級參謀的協助,會造成誤判或是又回到按習慣指揮的老路上,反而使敵方更容易預測其行動。馬賽克戰將人類的創造性與人工智能的強大運算能力相結合,人工智能可以為指揮官提供計算工具,賦予基層指揮官快速控制分散的部隊、適應戰場空間環境的能力,以此克服“任務式指揮”的局限性,并縮短決策時間使己方獲取決策優勢,也給敵方決策施加困境。
美陸軍正在利用人工智能技術制定新的“任務式指揮”概念,將機器學習與任務指揮能力相結合,以提升人類在任務規劃、準備和執行過程中的決策能力。其核心是由對機器人收集的數據進行合理的管理、處理和分發,讓機器人成為人的得力助手,從而使人能夠更快、更有效地做出決策。在干擾、欺騙敵方決策方面,美軍正在探索利用“深度偽造”技術合成假音頻、假視頻投放至敵軍內部,向敵軍下達錯誤命令,干擾敵指揮控制系統,致使敵方決策失誤。

被美國刺殺的伊朗將領蘇萊曼尼
另一方面,人工智能可輔助人類情報分析師綜合評估海量戰場信息,間接輔助指揮官決策。情報是決策的基礎,《孫子兵法》中充分強調了“知”的重要性,認為“知彼知己,勝乃不殆;知天知地,勝乃可全”,這里的“知”指的就是情報。在充滿不確定性、瞬息萬變的復雜戰場環境下,尤其是時間緊迫時,人工智能能夠比人類情報分析師更高效快速解讀碎片化甚至是相互矛盾的海量信息,還可接收和過濾相關實時信息,幫助制定作戰決策。2019年1月,美國家情報總監辦公室頒布了指導美國情報界人工智能技術發展的綱領性文件——《AIM倡議:機器增強情報戰略》,旨在通過重點發展和快速采用人工智能、自動化和增強(AAA)技術,利用“機器增強情報”戰略來指導美國情報界的人工智能工作,以提高情報工作效率、任務能力和決策能力。美國防情報局、國防高級研究計劃局、地理空間情報局等多家軍事情報機構都在如火如荼地發展人工智能項目計劃,試圖將人工智能技術優勢轉化為情報決策優勢。比如地理空間情報局將智能處理技術運用于戰場空間情報分析,使指揮員能夠全維實時感知戰場態勢,從而快速做出決策。
殺傷打擊精確化
殺傷打擊精確化是智能化戰爭制勝的決定性要素之一。智能化戰爭中的精確殺傷打擊是指在人工智能時代,以人工智能技術為核心,綜合多種嵌入人工智能算法的武器裝備平臺為手段,在多重維度實施精確打擊。相對信息化戰爭中傳統的精確打擊而言,智能化戰爭中的精準定制殺傷融合了多種快速發展中的人工智能技術,具備五大新特點:情報檢索高效快速,目標鎖定“化整為零”,殺傷流程趨于自主,作戰編組靈活分散,殺傷效果集約可控。

美國空軍上校約翰·博伊德
人工智能精準定制殺傷的原理是利用深度學習以及綜合機器視覺技術,進行目標篩選和追蹤,同時發揮人工智能在態勢感知、運算速度方面的巨大優勢,引導火控系統根據實時情況快速精準評估,并根據打擊效果實時調整任務和戰術。在殺傷效果上,精準定制殺傷根據目標屬性、戰場環境和殺傷要求,自主定制并調整攻擊組合、時序與方式,達成警告、干擾、壓制、降級、失能等多種損傷效果。例如美軍在刺殺蘇萊曼尼時使用的AGM-114R9X型地獄火導彈直接將目標人物殺死在車輛內部,除目標車輛車身遭受巨大的破壞外,對周邊目標造成的傷害幾乎可以忽略不計。美陸軍2020年秋在“項目融合”演習中測試殺傷鏈,其流程為:來自低軌衛星、灰鷹無人機以及地面傳感器的數據傳輸至指揮控制中心,指控中心利用人工智能對數據進行分類、處理和分析,計算出打擊該特定目標的最佳武器,M109自動榴彈炮、灰鷹無人機或地面平臺向目標開火,整個過程不到20秒。
風險:可靠性與安全性有待考量
人工智能雖然在優化美軍殺傷鏈流程中表現出巨大應用潛力,能夠使目標識別精確化,定位跟蹤實時化,決策過程快速化,殺傷打擊精確化,但是在技術安全性、人機關系、法律等方面的安全性和可靠性仍有待考量。
一是技術安全性問題。當下人工智能技術的成熟運用仍存在諸多阻礙和風險。從殺傷鏈中敵我雙方對抗的角度看,一方面,己方的目標識別、跟蹤系統還無法完全做到智能化,民用領域曾出現過自動駕駛車輛由于未識別出行人而釀成撞人致死事故,以此為鑒,軍事領域的應用要十分審慎;另一方面,敵方如果利用諸如“深度偽造”的人工智能技術手段故意釋放迷惑性信息欺騙我方,或者用一般的技術手段篡改我方人工智能算法,致使我方殺傷鏈流程的任意一環出現錯誤,其后果都將不堪設想。

AGM-114地獄火空地導彈
二是人機關系問題。通過前文的分析,不可否認的是,人工智能確實能夠以其強大的數據處理、分析和融合能力,在復雜多變的戰場環境下減輕參謀人員和指揮官的負擔,甚至能夠模擬人類思維進行感知和判斷。但是在人機關系層面,無論人工智能技術發展到多么成熟的程度,殺傷鏈中的決策權都必須牢牢掌握在人類手中,人類在決策環節必不可少。因為人工智能技術只要掌握了正確的算法和合適的數據,就可以很快地對目標發動精準殺傷打擊,如果將是否發動攻擊的決策權交由人工智能,那么將給未來的國家安全造成巨大隱患,這一點不亞于克隆技術被濫用的危害。人工智能的使用必須有邊界,即決定權要交由人類。
三是法律問題。法律的出臺是為了保護人工智能技術的健康發展,規定其邊界,使其不被濫用。目前國際社會對于人工智能軍事化應用的立法還尚未成熟。試想,如果嵌入了人工智能算法的一枚導彈在識別目標時出現失誤,將無辜平民誤判為打擊目標而殺死,那么,其背后應該受到法律制裁的主體應該是誰,各個主體又該承擔多少責任,都缺乏法律的界定。