美軍動向:與美科技巨頭加速勾連,生成式AI軍事化
作為全球領先的人工智能(AI)大模型公司OpenAI近期悄悄修改了有關禁止其AI技術用于軍事用途的禁令措辭,更寬泛的表述讓外界加大了對于美國科技巨頭加速與美軍方深度合作的擔憂。而這只是美國國防和軍事領域與生成式AI緊密結合的冰山一角。五角大樓已成立了分析生成式AI如何用于國防領域的專門機構。
美國華盛頓特區,五角大樓。
OpenAI修改禁令打開“潘多拉盒子”?
據美國調查新聞網站The Intercept近日報道,OpenAI在未經公開宣布的情況下對其政策頁面進行了重大修改。此前,OpenAI表示“禁止將其大型語言模型用于任何軍事或戰爭相關的應用”。修改后,表述為“OpenAI的產品不可以用來傷害自己或他人,包括通過武器的研發造成的傷害”。OpenAI發言人尼克·菲利克斯通過郵件對The Intercept表示,此次修改旨在使文件“更清晰”和“更具可讀性”,但他拒絕透露定義模糊的“傷害”禁令是否包括所有軍事用途。
美國Semafor網站報道稱,OpenAI近日透露,OpenAI公司正在與五角大樓合作開展軟件項目,包括與網絡安全相關的項目。
OpenAI 資料圖
據美國硅谷新興科技媒體The Information報道,盡管OpenAI已經排除了直接開發武器的可能性,但其新政策可能會允許它向美國防部提供人工智能軟件,用于幫助分析人員解讀數據或編寫代碼等用途。但正如俄烏沖突所顯示的那樣,數據處理和戰爭之間的界限可能并不像OpenAI所希望的那樣明確。烏克蘭已開發并進口了用于分析大數據的軟件,這使得其炮兵操作員能夠迅速收到該地區俄方目標的通知,并大大加快他們的射擊速度。
The Information警告稱,政策的變化可能足以重新引發OpenAI關于人工智能安全的爭論,正是這一爭論導致了該公司首席執行官奧特曼被短暫解雇。
五角大樓成立專門機構聚焦生成式AI
目前,美國軍方對于他們如何以及在哪些具體軍事項目中應用AI大模型諱莫如深,但從現有公開信息可以看出一些動向。去年8月,五角大樓宣布正式成立生成式AI工作組,該工作組被命名為“利馬(Lima)”,將在分析和集成整個國防部的生成式AI工具(包括大語言模型)方面發揮關鍵作用。據五角大樓介紹,該工作組將在美國國防部首席數字和人工智能辦公室(CDAO)的領導下工作,負責評估、同步和應用整個國防部的生成式AI功能,確保該部門在維護國家安全的同時保持在尖端技術的最前沿。美媒援引美國海軍軍官、“利馬”工作組指揮官席爾瓦·盧戈的話稱,“在國防中采用AI技術不僅涉及創新技術,還涉及增強國家安全。國防部認識到生成式AI在顯著改善情報、運營規劃以及行政和業務流程方面的潛力。”
在去年9月接受美國防務網站Defensescoop采訪時,盧戈強調,關于生成式AI最終會以何種方式以及出于什么目的被美軍方大規模部署,仍然存在許多未知數。
盡管盧戈將AI大模型的應用描述為具備不確定性,但分析人士已經從中看到廣泛的前景。美國網站WarontheRocks近日稱,與美國國防部合作的商業人工智能公司Scale AI的一個志愿者團隊改編了由美國海軍陸戰隊高級作戰學院主辦的一場演習,并開發出一款用于軍事規劃的實驗性大語言模型“赫爾墨斯”。報道稱,該實驗表明,有必要開始將AI大模型集成到軍事規劃中。大語言模型有助于軍事規劃者更好地了解作戰環境,并確定如何更好地理解時間、空間和部隊方面的概念。
美科技公司與五角大樓的勾連在加速
有分析認為,美國政治制度中的“旋轉門”已經在AI業界和政界、軍界之間加速旋轉。領導美國國防部首席數字和人工智能辦公室的克雷格·馬泰爾曾擔任Lyft公司的機器學習主管;去年4月,五角大樓宣布任命蘋果公司高管貝克為其下屬國防創新部門(DIU)的主任;谷歌公司前CEO埃里克·施密特在退休后,搖身一變成為五角大樓的科技顧問。
Semafor網站稱,近年來硅谷在與美國軍方合作方面的立場有所軟化。2018年,數千名谷歌員工對于參與五角大樓Project Maven項目進行抗議,擔心他們開發的技術可能被用于致命目的。這是硅谷反對與美國軍方合作的一個代表性案例。美國“連線”網站稱,Project Maven項目風波三年后,谷歌向五角大樓示好。谷歌發展的國防投資組合包括一個通過將機器學習應用于無人機圖像來檢測海軍艦艇腐蝕的項目,以及另一個為空軍提供飛機維護支持的項目。谷歌還向五角大樓的國防創新部門提供云安全技術,該部門的成立是為了幫助國防部與科技公司更緊密地合作。谷歌還贏得了中情局一項大型云計算合同的一部分。
英國《金融時報》稱,硅谷重啟與美國軍方的關系。一些科技公司正在后退,避免變得過于“相互勾連”,而另一些科技集團正在介入。加州Shield AI是一家幫助五角大樓在沖突地區建造無人系統的初創企業,聯合創始人布蘭登表示,每有一個谷歌退出的例子,就有一個微軟進入。曾是“海豹”突擊隊隊員的布蘭登說:“有才華的工程師不愿與軍隊合作是假象。總的來說,你會發現一群熱情的員工有興趣幫助政府解決前沿問題。科技行業人士更普遍的情緒是,‘我寧愿與我們的政府客戶并肩工作,也不愿在一些重大問題上袖手旁觀’。”
AI軍事化影響有多大
“隨著AI技術不斷發展與普及,各國軍事和防務部門對其的關注正在持續升溫。而其中蘊含的風險和挑戰也顯而易見。可以想象一下,在未來戰場一個能實時分析各種情報、提供精準決策建議的智能系統,將是多么強大的助力。”
中國信息協會常務理事、國研新經濟研究院創始院長朱克力對《環球時報》記者表示,這個系統可利用大模型的強大分析能力,對海量情報進行篩選、整合和深度挖掘,幫助指揮官快速了解戰場態勢、作出正確決策。同時,在軍事訓練中大模型也可發揮重要作用,通過模擬復雜的戰場環境,讓士兵在虛擬世界中演練,不僅可提高訓練效果,還能降低訓練成本和風險。
軍事專家宋忠平接受《環球時報》記者采訪時分析稱,隨著大模型日益完善,將具備更強的輔助決策甚至主動決策能力。“可以說,未來誰能夠占據AI的制高點,誰就會奪得戰場的主動權。”宋忠平進一步分析稱,AI的使用可能會讓“無人戰場”成為現實,甚至會出現“一方有人,一方無人”的局面,這種技術差距將會大大增加戰場殘酷性。
這種難以估量的風險還與AI目前的一大缺陷有關——幻覺。一些人工智能安全的倡導者警告稱,AI可能制造虛假信息并將其作為真實信息傳遞出去,如果將人工智能驅動的系統集成到指揮和控制系統中,將會帶來更大的風險。
朱克力表示,AI技術的誤用或濫用可能帶來嚴重后果。比如,一旦自動化武器系統失控,可能造成無辜人員傷亡。其次,AI技術的軍事應用也可能加劇國際緊張局勢。不排除一些國家利用AI技術來提升自己的軍事實力,從而引發其他國家的擔憂和反彈。
「 支持烏有之鄉!」
您的打賞將用于網站日常運行與維護。
幫助我們辦好網站,宣傳紅色文化!