谷歌與五角大樓達成協議,允許后者在涉密行動中使用“Gemini”。盡管谷歌內部有600名員工發出警告,這項協議最終仍未被阻止。谷歌母公司字母表旗下企業4月28日星期二宣布,已與美國國防部簽署協議,擴大生成式人工智能模型“Gemini”在涉密行動中的使用范圍。
![]()
這意味著,谷歌將與開放人工智能研究中心一道,取代此前唯一獲準用于此類行動的“Anthropic”模型“Claude”。今年2月底,特朗普政府下令終止與Anthropic之間的所有合同。
這一決定已被這家加利福尼亞初創企業訴諸法院。此后,美國國防部又與開放人工智能研究中心達成一致,準備將該公司的模型納入涉密行動,但相關流程仍需數月才能完成。
![]()
星期一,谷歌600多名員工聯名致信公司管理層,要求放棄向美軍提供可用于涉密行動的模型。聲明中,一名未公開姓名的員工表示:“以目前的情況來看,根本無法確保我們的工具不會被用來造成可怕的傷害,或在外界難以監督的情況下侵蝕個人自由。”
據美國科技媒體《信息》報道,在五角大樓與Anthropic分道揚鑣后,埃隆·馬斯克創辦的人工智能初創企業“xAI”也與五角大樓簽署了協議。五角大樓人工智能負責人卡梅倫·斯坦利在接受美國消費者新聞與商業頻道采訪時表示:“過度依賴單一供應商,從來都不是好事。”
多家美國媒體稱,谷歌與五角大樓的協議與開放人工智能研究中心、“xAI”的安排類似,允許在法律框架內使用人工智能模型。相比之下,此前與Anthropic簽訂的合同明確排除了對美國平民實施大規模監控以及發動致命攻擊。
![]()
之所以當年引發強烈反彈,是因為員工普遍認為這種用途與“人工智能可能被用于更具爭議的軍事行動”之間存在緊密關聯,且從公司治理角度無法有效回答關于風險邊界與道德責任的問題。
![]()
由此看來,本次針對“Gemini”進入涉密行動范圍的內部反對,可能也在某種程度上延續了公司內部對軍用人工智能應用的長期敏感性:當技術能力被納入更高風險的場景時,組織內部對“可能后果”的擔憂往往會重新被點燃。
綜合來看,這次谷歌與五角大樓的合作安排,表面上是模型能力的擴展與供應鏈的調整,背后卻牽動著政策、法律、倫理與組織治理等多重議題。
![]()
對于員工而言,核心顧慮在于無法保證工具不會造成嚴重傷害,以及在外界難以監督的情況下可能侵蝕個人自由;對于軍方而言,可能更強調在合規框架下引入多供應商與可部署能力;對于外界觀察者而言,關鍵則在于協議條款的具體邊界、技術使用的實際落點、以及最終如何實現有效監督與責任歸屬。
未來數月內,相關涉密流程若繼續推進,圍繞“誰能使用、如何使用、使用到什么程度、由誰負責”的討論恐怕還將伴隨更多細節逐步浮出水面。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.